2017人機大戰:人類智力尊嚴需要捍衛嗎
編者的話
新年伊始,一名網上神秘棋手Master挑戰人類圍棋頂尖高手,Master竟以60∶0的成績完勝。谷歌公司隨后宣布,Master就是AI機器人AlphaGO的改進型,是其“深心(DeepMind)計劃”的一部分。
引發全球關注的是,短短半年,阿爾法狗(AlphaGO)的改進型所展現出的學習能力,已經超出人類對進步速度的理解。2016年,人們對于阿爾法狗的能力以及韓國棋手李世石的發揮尚存疑問;如今,人工智能碾壓人類智商的恐懼感再次籠罩網絡……無怪乎柯潔在徹夜未眠后發微博感慨“人類千年的實戰演練進化,計算機卻告訴我們,人類全都是錯的”……
那么,人工智能(AI)何以這么強?有學者指出:“2016年人工智能的爆發有三大原因:算法的進步、硬件的進步和大數據的進步。人工智能將是下一個主戰場。誰的數據更多,更精準,誰的技術怪獸就會被喂養得更強。”進而,人們繼續發問,誰來捍衛人類的尊嚴?這場人機大戰帶來的宏觀效果是什么?它們還會在哪些領域挑戰人類,我們的未來是否充滿危機感?
人機大戰將引發人們對以Master為代表的人工智能的未來作出怎樣的思考?《思想者》特邀兩位學者發表看法,以饗讀者。
----------------------------------------------------
■誰能保證,隨著硬件與軟件的進一步發展,以及神經網絡、算法技術的突破,機器有一天會不會突然產生意識?到那時,這就涉及難以處理的復雜倫理問題。
此次機器人Master以60∶0完勝頂尖圍棋高手的人機大戰,帶來的宏觀效果有三個:其一,全球性的娛樂價值;其二,所有專業棋手開始感到存在的危機;第三,引發人們對以Master為代表的人工智能的未來的好奇。
圍棋行業的萎縮已不可避免
這場人機大戰的直接結果,就是無情地宣告:很多曾被認為不可替代的工作,只是因為人工智能尚未涉及而已。由此推斷,圍棋行業的萎縮已不可避免,因為機器比人做得更漂亮,何必還要維持一個龐大的可替代機構呢?相信圍棋界的同仁對此會有更深的體會。按照德國社會學家馬克斯·韋伯的說法,科技的最大神奇之處就在于其巨大的祛魅功能,讓以往諸多奇跡與神話在科學面前毫無余地現出原形。今天的很多熱門行業與專業,未來都將被人工智能取代,相信這個絕非危言聳聽的前景會讓人們重新思考人工智能與我們自身的關系。
無根據的驕傲與自負
這場“人機”大戰引發的第二個層次的問題,是人的尊嚴問題。這次Master對圍棋高手們的“血洗”,讓人類整體感覺很沒有面子。
20年前,當深藍戰勝國際象棋世界冠軍卡斯帕羅夫之后,人們就把賭注押在圍棋上,認為那是機器無能為力的領域,如今,這個賭注在人工智能面前同樣弱不禁風。人類曾引以為榮的諸多價值標的,在新技術面前一個個倒下,這讓人類情何以堪?
冷靜下來,我們不得不思考:這次Master贏了什么?而人類又輸了什么?僅就后者而言,人類輸掉的不是尊嚴,而是無根據的驕傲與自負。何謂尊嚴是一個非常復雜的問題,英國哲學家邁克爾·羅森曾把尊嚴分解為三個部分:一種社會地位;一種恒久的內在價值;一種可以被尊重的行為,是性格或能力的體現。暫且不論尊嚴概念有多復雜,必須明確尊嚴所針對的對象一定是人類。在這個基礎上,我們看不出,輸棋后圍棋棋手的尊嚴有何損失?原先的九段還是九段,以前擁有的社會地位也沒有隨之發生變遷。改變的只是,經此一役,那些曾經虛妄的驕傲、自負與認知模式開始發生改變,而正是這些要素曾構成人類的價值標的。
歷史經驗無數次表明,人類的驕傲與自負大多是被夸張建構的。破除人類內心根深蒂固的虛妄的驕傲與自負,恰是本次人機大戰的重要收獲之一。
機器有一天會不會突然產生意識?
此番Master獲勝帶來的最重大意義在于:它讓更多的人開始意識到人工智能對人類未來所具有的顛覆性作用。對于人工智能的樸素樂觀與悲觀態度,都是不足取的。
僅就筆者這幾年從事心靈哲學研究的粗淺體驗來看,以阿爾法狗為代表的人工智能會引發兩個嚴肅問題:其一,從學理上看,機器是否有智能,需要新的判斷標準。60多年前提出的圖林測試過于簡單,已無力去評判機器是否有智能。現在的研究顯示,智能包含多維度內容,遠不只當下所能實現的可計算化(形式化)這一種。而在計算能力方面,人類早已不是機器的對手;智能中的其他維度一旦可以部分形式化,人類自然也不是機器的對手,未來的深度學習甚至可以做到更多。如果這一天到來,人類不僅面臨被全面替代的問題,還將涉及自身存在的意義問題。
其二,時至今日,學界也沒有徹底搞清楚,意識到底是怎么產生的?只能籠統地說是神經系統在進化過程中產生的一種現象。誰能保證,隨著硬件與軟件的進一步發展,以及神經網絡、算法技術的突破,機器有一天會不會突然產生意識?到那時,這就涉及難以處理的復雜倫理問題。
筆者比較相信認知理論中的計算主義,單就計算來說,人類面臨三大制約:其一,速度制約,即大腦皮層的計算速度遠趕不上電腦芯片的計算速度,這也就是為什么人類喜歡經驗的原因,因為借助于經驗可以減少計算量;其二,能量制約,其三,計算通道的制約,而在這些方面,人工智能都比人強。
筆者也曾參與過一些相關論壇的討論,與會觀點呈現出一種普遍性的對立:科學家一方往往認為:人工智能離真正的應用還很遠,它目前還很“傻”,其危險遠不足慮;而人文學者一方則往往比較擔憂,認為孩子總會長大,隨著技術的蔓延與擴散,一旦有某些關鍵技術的突破,人工智能所引發的鏈式反應就會出現無法控制的局面,到那時,我們千百年來所形成的用以維持社會秩序的規范(善惡、正義與價值等)都將面臨崩潰的局面,那是人類無法承受的代價。對于尋常大眾而言,在好奇心引領下,則片面寄希望于一旦人工智能取得新進展,或許會給我們的生活帶來改善并提升社會福祉。
制定最低限度的規則
筆者以為,這次變革與以往任何一次技術變革的性質是完全不同的,它涉及將出現的新的思考物體,而思考曾是人類所獨有的能力。如何與之相處,我們似乎并沒有準備好。
遺憾的是,人類在道德判斷上容易出現一種對未來風險折現縮小化的現象,即如果眼前的潛在利益大于未來不確定性風險的代價,人們更傾向于對遙遠的風險進行打折,畢竟危險尚遠,而且還不一定出現——對當下收益放大,而對未來風險則進行打折,從而造成決策失誤。潘多拉的盒子一旦打開,就再也關不上了。沒有任何國家或機構愿意放棄這個嶄新的機會領域,鑒于人工智能所具有的高度不確定性前景,在競爭的循環剛剛開始之時,需要制定最低限度的規則。當下,唯一可做的就是多方代表坐下來協商,給它的發展套上韁繩。否則,我們追求來的將不再是期盼中的救星,而很可能是無情的掘墓人。