意-751912090556956709.jpg?size=267072)
利維坦按:
和其他科研領(lǐng)域一樣,人工智能方面的研究也無時無刻不在發(fā)展。或是前沿理論預(yù)測,或是基礎(chǔ)實驗應(yīng)用,這一領(lǐng)域自一誕生就未曾停滯。但和其他領(lǐng)域不同的是,人工智能研究似乎充斥著危險的氣息。這一領(lǐng)域的發(fā)展觸動了許許多多人關(guān)于自身存在的擔(dān)憂。與傳統(tǒng)的危險研究課題(比如大規(guī)模殺傷性武器)不同的是,人工智能的研究人員甚至還沒法完全弄清楚自己研究的東西究竟是什么。科技向善是美好期望(事實上科研人員也在朝這個方向努力),但大多數(shù)研究人員認(rèn)為,強人工智能將會在50年內(nèi)出現(xiàn),人類的未來將會無可避免因此而發(fā)生劇烈演化。邁入不朽還是走向滅亡,恐怕只有到那時才會有答案。
1956年6月,幾十個科學(xué)家、數(shù)學(xué)家聚集在美國的達(dá)特茅斯學(xué)院開會。期間,大多數(shù)參會者在紅磚砌成的漢諾威酒店安頓了下來,他們漫步穿過這個比美國獨立歷史還要年長的古老校園,走到數(shù)學(xué)樓的頂層。會議上常見斬釘截鐵的斷言或難以駁倒的假設(shè),充斥著天真與浪漫。而這些特征,日后也成了整個領(lǐng)域的特征。這個領(lǐng)域很奇怪,奇怪到開會的時候都還沒有名字。控制論、自動機(jī)理論、復(fù)雜信息處理……當(dāng)時的人們對于如此一個全新的世界有著各種不同的名稱,但每個名稱都有概念取向的偏重性。在這片密布參天大樹、森林般的校園里,他們所討論的是如何建造一臺會思考的機(jī)器,一臺可能會觸發(fā)全人類生存恐懼的機(jī)器。
達(dá)特茅斯會議的參會者大多來來往往,算法信息論的發(fā)明者雷·所羅門諾夫(Ray Solomonoff) 卻在那里呆了整整一禮拜。作為人工智能研究的先驅(qū),此人一直關(guān)注著人工智能的潛在利益和危險,并在1985年首次闡述了他有關(guān)“無限點”(infinity point)的概念:這個概念被未來主義者雷·庫茲韋爾(Ray Kurzweil)取用并發(fā)展成為了他那飽受爭議的“奇點理論”。包括庫茲韋爾在內(nèi)的大量奇點主義者認(rèn)為:未來技術(shù)發(fā)展不可逆轉(zhuǎn)且不可控制,將會帶領(lǐng)人類文明走向一個難以估測的境遇。一旦人工智能學(xué)會如何進(jìn)行遞歸的自我改進(jìn),每一次改進(jìn)都會使其更快發(fā)展,就像在滾雪球。這樣的猜測被庫茲韋爾用加速回報定律進(jìn)行了描述,他在論文中是這樣解釋的:在科技的早期階段,輪子、火、石器——費時數(shù)萬年慢慢演進(jìn)才普及開來。1000年前,諸如印刷術(shù)等典范轉(zhuǎn)移,也用了百余年才被廣泛采用。而今天,重大的范式轉(zhuǎn)換,例如移動電話及全球互聯(lián)網(wǎng),則只消數(shù)年的時間就大行其道了。20世紀(jì)100年來的進(jìn)步,以2000年的速度只需要20年就能完成——因為當(dāng)年的發(fā)展速度是20世紀(jì)平均值的5倍,而人類在21世紀(jì)的進(jìn)步將是20世紀(jì)的1000倍。
如果我們按人工智能的能力來給他們分級的話,現(xiàn)在被我們廣泛應(yīng)用到各行各業(yè)的人工智能仍處于弱人工智能階段,而強人工智能將會在各方面都達(dá)到人類的水平,與人相當(dāng)。我們?nèi)蕴幱谟扇醯綇姷倪M(jìn)步階段。什么是智力?20世紀(jì)初為公立學(xué)校的低能兒童發(fā)明智商測試的心理學(xué)家阿爾弗雷德·比奈(Alfred Binet)的回答非常謹(jǐn)慎——智力就是“我的測試所測量的東西”。在優(yōu)生學(xué)盛行的時代,智力被迫具有了標(biāo)尺化的實際數(shù)值。但這一狹隘的標(biāo)準(zhǔn)顯然不適用于強人工智能時代。
弱人工智能怎樣才能變強?基礎(chǔ)條件是硬件水平的進(jìn)步,但更重要的是策略。
目前讓人工智能變強的主要策略大致有三種。首先是讓人工智能學(xué)習(xí)人腦,模擬人腦進(jìn)行架構(gòu),組成人工精神網(wǎng)絡(luò)。我國清華大學(xué)類腦計算研究中心施路平團(tuán)隊研發(fā)的“天機(jī)芯”人工智能芯片,結(jié)合了基于神經(jīng)科學(xué)的類腦計算和基于計算機(jī)科學(xué)的人工智能。今年8月,第三代“天機(jī)芯”登上了《自然》(Nature)封面。第二種策略是指模仿生物的進(jìn)化。如果人腦太難模擬,就模擬人腦的演化過程。這種策略將人工模擬一個演化環(huán)境,使得人工智能自己想辦法進(jìn)化。第三種策略,就是讓人工智能自我改進(jìn)。與其思索如何制造更強大的人工智能,不如制造一個研究人工智能的智能,讓它代為研究。而根據(jù)加速回報定律,人工智能自我改進(jìn)的幅度最終將會迎來指數(shù)式的爆發(fā),以難以理解的失控速度進(jìn)步(即所謂的“智能爆炸”,既是加速回報定律的最終表現(xiàn),又會是超人工智能出現(xiàn)的必要條件),最終成為超級智能。
按照他的計算,電腦將在2029年成為強人工智能,而等到2045年,超級智能會帶領(lǐng)人類進(jìn)入一個全新的歷史篇章——奇點時代。
奇點一詞出自宇宙學(xué),意味著一條明確的分界,邁過去之后原有規(guī)則將會徹底消失,最早是被馮·諾伊曼用到對人類進(jìn)化的描述中的。而庫茲韋爾的理論,無疑將奇點從一個有趣的理論推測轉(zhuǎn)變?yōu)?strong>一場席卷全球的社會活動。
在他看來,超級智能的能力將不再是人類所能理解的,就像一只螞蟻無法理解人類一樣。憑借著指數(shù)爆炸后的智能水平與全球互聯(lián),它甚至能夠準(zhǔn)確回答幾乎所有問題,比如如何打造一個時間機(jī)器。它還能延長人類壽命。想象一下經(jīng)wifi控制的納米機(jī)器人在你的血管里前行,修復(fù)受損部位,摧毀癌癥細(xì)胞,屆時疾病和衰老都不再是問題。或者是意識上傳,全人類共聯(lián),進(jìn)化成單獨的群體意識,在云端實現(xiàn)永生。總有一天,超級智能將徹底改變“人類是什么”的答案,就好像自然進(jìn)化的目標(biāo)是終極智能,而智人只是通往目標(biāo)之路上的一個必經(jīng)階段。正如科幻作家維諾·溫格(Vernor Vinge)所說:我們正站在變革的邊緣,而這次變革將和人類的出現(xiàn)一般意義重大。此人有點一言難盡。一方面他年少有成,發(fā)明工作碩果累累,在多個領(lǐng)域被各所頂尖名校授予了21個名譽博士學(xué)位,應(yīng)邀在谷歌當(dāng)過工程總監(jiān),創(chuàng)辦奇點大學(xué),是《華爾街日報》筆下“永不停歇的天才”,《福布斯》口中的“終極思想機(jī)器”,還被比爾·蓋茨稱為“我認(rèn)識的人里對人工智能預(yù)測最準(zhǔn)確的人”。但另一方面,此人又被CBS(哥倫比亞廣播公司)稱為“垃圾科學(xué)的銷售員”,一個招搖撞騙的欺詐者,90年代創(chuàng)立的公司還曾被美國證監(jiān)會起訴證券詐騙。認(rèn)知科學(xué)家侯世達(dá)認(rèn)為,庫茲韋爾的觀點就像是徹底攪和在一起的好想法和廢話,讓你分不清是好是壞。他成功預(yù)測了蘇聯(lián)解體,計算機(jī)在2000年之前擊敗人類最佳棋手,還預(yù)測到了上世紀(jì)90年代的全球互聯(lián)網(wǎng)的爆炸性普及。
事實上在他2010年發(fā)布的報告《我的預(yù)測是如何實現(xiàn)的》中,庫茲韋爾聲稱自己對未來一共做了147個預(yù)言。其中115個完全正確,12個基本正確,17個部分正確,只有3個是錯誤的。準(zhǔn)確率達(dá)到了86%。
但在另一番事實上,批評者認(rèn)為庫茲韋爾有著不止3個完全錯誤的預(yù)測,并指責(zé)即便是他那些成功的預(yù)測,都是大概率自然就會發(fā)生的事件。
為了能夠親眼見證奇點時代的到來,庫茲韋爾希望自己能活得更久一些,因此堅持每天服用150-210種維生素和礦物質(zhì)補充劑,每周到醫(yī)院接受一次“出于長壽治療目的”的靜脈注射。假若死于奇點到來之前,在他看來將會是一場悲劇,就像一個在停戰(zhàn)協(xié)議宣布的前一秒壯烈犧牲的士兵。因此,作為奇點主義者的他同時又是一個超人類主義者(關(guān)于超人類主義和永生的話題,我們后天再詳細(xì)討論)。至于他的奇點理論,支持者認(rèn)為他是在機(jī)器中尋找上帝,宗教保守主義者則認(rèn)為他是在褻瀆上帝——盡管在某種觀點上,他所描述的“超級智能世界”非常契合基督教末世論中描述的“天國大收割,新世紀(jì)開始”。
牛津大學(xué)哲學(xué)系教授尼克·博斯特倫(Nick Bostrom)曾提出這樣一種可能:當(dāng)我們創(chuàng)造出第一個超級智能的時候,我們可能會犯一個錯誤——給它設(shè)定的目標(biāo)將引導(dǎo)它消滅人類。比如說我們讓超級智能去計算圓周率,結(jié)果為了獲得更多存儲介質(zhì),它利用納米機(jī)器人分解掉了包括我們?nèi)祟愒趦?nèi)的所有物質(zhì),最后把整個地球轉(zhuǎn)化成了一個巨大的硬盤。它對人類并沒有惡意,就像你剪頭發(fā)時也不會對頭發(fā)有惡意。很顯然,這樣的人工智能會比人類友好型人工智能更容易制造。一個友好的人工智能需要保持自己某一部分的目標(biāo)結(jié)構(gòu)保持不變,以使其與人類價值觀保持一致,這才是最難的。博斯特倫教授認(rèn)為,未來我們將會面臨兩種可能的結(jié)果——永生和滅絕。而包括庫茲韋爾自己也承認(rèn),快速發(fā)展的技術(shù)可能會帶來嚴(yán)峻的后果,但他更傾向于樂觀地思考。“技術(shù)進(jìn)化是生物進(jìn)化的延續(xù),”他說,“這是一個非常自然的過程。”
但在2015年的國際人工智能聯(lián)合會議上,包括霍金、比爾·蓋茨、埃隆·馬斯克等上千名行業(yè)大拿聯(lián)名簽署公開信,敦促次聯(lián)合國禁止開發(fā)自主化武器。
霍金警告說:人工智能要么在瘋狂追求自身目標(biāo)的過程中毀滅地球,要么意外地消滅人類,要么不是意外。馬斯克則認(rèn)為,我們很有可能會“意外地”制造出一些邪惡的東西。科技向善在此時就顯得尤為重要。
與此同時,還有大量科學(xué)家對超級智能是否會與人為善表達(dá)了高度懷疑——這并不是一件意料之外的事。
超級智能的正邪爭辯暫擱不表。只是,我們離這些事還有多遠(yuǎn)?就在去年,作家詹姆斯·巴特(James Barrat)在一場強人工智能大會上做了次調(diào)查。他詢問受試者認(rèn)為強人工智能會在哪一年前出現(xiàn),并給出四個選項:2030年、2050年、2100年、永遠(yuǎn)不會。結(jié)果42%的回答者認(rèn)為強人工智能會在2030年之前出現(xiàn),25%認(rèn)為是2030-2050年,20%認(rèn)為2050-2100年,10%認(rèn)為要等到2100年以后,而只有2%認(rèn)為永遠(yuǎn)不會出現(xiàn)。
類似的調(diào)查博斯特倫在2013年也做過。他在一系列會議上向數(shù)百名人工智能領(lǐng)域的專家提出問題:假設(shè)人類科學(xué)活動繼續(xù),不會出現(xiàn)重大的負(fù)面干擾。你們覺得什么時候有10%的可能出現(xiàn)強人工智能,什么時候幾率是50%,什么時候是90%?人們認(rèn)為10%可能出現(xiàn)強人工智能的年份是:2022年
人們認(rèn)為50%可能出現(xiàn)強人工智能的年份是:2040年
人們認(rèn)為90%可能出現(xiàn)強人工智能的年份是:2075年
這意味著只要你足夠年輕,超過一半的專家都認(rèn)為:你將在有生之年看到強人工智能的出現(xiàn)。
那么超級智能呢?博斯特倫的問卷同樣涉及了這一點。調(diào)查結(jié)果顯示:平均意見認(rèn)為兩年內(nèi)強人工智能發(fā)展成超級智能的可能性只有10%,但30年內(nèi)發(fā)生的概率高達(dá)75%。不過博斯特倫認(rèn)為,目前來看無論誰所猜的時間都沒有任何準(zhǔn)確性可言,我們還沒到能猜中答案的那個階段(如果存在的話),要么即將發(fā)生,要么需要更久,要么不發(fā)生,都有可能。近幾年來,研究者都在刻意避免“奇點”的說法,以免引起不必要的聯(lián)想。人工智能也一直在成長,似乎非常有可能成為人類誕生以來最有力的工具——不遜于火和語言。去年早些時候,人工智能在斯坦福大學(xué)的閱讀理解測試中擊敗了一組人類對手。他們都需要先“閱讀”維基上一系列關(guān)于成吉思汗和阿波羅太空計劃的條目,然后比賽誰能更準(zhǔn)確地回答相關(guān)問題。這次勝利被視作一個“里程碑”。而就在幾天前,谷歌開發(fā)的量子計算機(jī)Sycamore在200秒內(nèi)完成了世界上最快的超級計算機(jī)Summit 1萬年才能完成的特定問題計算。谷歌聲稱通過Sycamore已經(jīng)實現(xiàn)了“量子霸權(quán)”。變化一直在發(fā)生。不管我們關(guān)心或不關(guān)心,參與或不參與,前沿科技無時無刻不在改變我們的生活。如何引導(dǎo)科技向善發(fā)展,是所有科研人員需要思考的問題。毫無疑問,哥倫比亞的霍徳·利普森(Hod Lipson)是這一方面的專家。早在2007年,利普森教授就曾和他的“自我感知”機(jī)器人共同席卷了全球科技媒體。與當(dāng)時其他機(jī)器人不同的是,利普森制作的機(jī)器人將脫離人為灌輸?shù)奈锢怼缀位蜃陨斫Y(jié)構(gòu)程序,而是完全通過實驗來學(xué)習(xí)如何操作。在經(jīng)歷一段時間的手舞足蹈和密集計算之后,它成功開始學(xué)習(xí)處理復(fù)雜情況,包括自我修復(fù)和用記號筆書寫文本。通過模擬人類的學(xué)習(xí)過程探究人工智能的意識水平,利普森這項工作的成功有如一劑強心劑,打到了每個研究前沿科技的工作者心坎里。由其團(tuán)隊研發(fā)的仿生群體“粒子機(jī)器人”可以像活細(xì)胞一樣實現(xiàn)自主運動,其仿生系統(tǒng)比傳統(tǒng)機(jī)器人有著更高的可擴(kuò)展性。最關(guān)鍵的是:在意識研究與智能控制之外,利普森的研發(fā)同時也意味著環(huán)境、醫(yī)療等多方面的巨大應(yīng)用潛力。
正如其他科技研究一樣,利普森希望他的工作能更好地造福人類。當(dāng)被問及機(jī)器人最后是否會統(tǒng)治宇宙,利普森回答說:“科技是一面鏡子,反映了我們的意圖和作為,同時也放大了我們的心思和舉動。它的發(fā)展方向,取決于開發(fā)者的意圖。”