6
想象一下,有一個真正的天才級AI (人工智能)正被困在一臺電腦里——姑且把這電腦看作一個盒子。你并不知曉這個AI的本性是善是惡,還是中立。你唯一肯定的是,它很想逃出盒子。你和AI可以通過文字窗口交流。假設這個AI真的是天才,如果你和它聊上5小時的話,它會不會成功操控你為它打開盒子?
上述便是機器智能研究所MIRI的研究員Eliezer Yudkowsky提出來的思想實驗。MIRI由一群研究超智能AI潛在風險的科學家組成,機構(gòu)雖小,卻吸引了不少關注與爭議。Paypal的聯(lián)合創(chuàng)始人Peter Thiel,及“開源”一詞的發(fā)明者兼納米科學家Christine Anderson都是MIRI的顧問。
Yudkowsky的主張是,為了說服人類放它出來,AI可以用盡任何的言語手段,如推理辯論,威脅,使詐,建立友誼,在潛意識上催眠等等。AI有著極快的反應速度,可以分析對手弱點,并算出最能讓對方上鉤的方式。正如存在主義危機理論家Nick Bostrom所說:“基本上我們應該假定,‘超級人工智能’有能力達到自己定下的任何目標?!?/p>
AI盒子實驗,引發(fā)了人類對自己可能的創(chuàng)造物究竟有幾成控制力的迷思,同時也揭示了一個相當荒誕的問題:人類對自身現(xiàn)實的認知,到底有多少把握?
電腦中的虛擬環(huán)境應是最理想的萌發(fā)人工智能的溫床。一些貌似有眉有眼的創(chuàng)造超級AI的理論有涉及到虛擬環(huán)境的使用——科學家可以在人工制造的虛擬環(huán)境里控制各種條件,選擇有價值的變量,進而嘗試粗略模仿出人類的認知能力演化模式,以生成AI的感知能力。在虛擬環(huán)境里制造AI,也可以保證在完成對AI的意圖及安全性評估前,AI不會“泄漏”到現(xiàn)實世界中。
根據(jù)過往經(jīng)驗,眼下人類要想從零開始培養(yǎng)出有認知能力的AI,怕是難于登天。擁有和人類同等智力水平的AI,可不是敲敲代碼就能造出來的。不過,除此之外還有其它挺靠譜的理論。再加上根據(jù)摩爾定律,電腦的計算能力總是在增長,也許不久的將來,人類真的可以設計出一個足以生成擁有人類智慧的AI的進程。
關于如何“創(chuàng)造”AI,有一個理論是去掃描、繪制及仿制出一個人類大腦的虛擬模型。人類大腦包含了數(shù)百萬個活躍的神經(jīng)元,及數(shù)萬億條神經(jīng)元連接。如果我們把人類的完整腦神經(jīng)元架構(gòu)及腦電傳送模式成功虛擬模型化,那么還原到了這個份上,是否就表示人類心智已經(jīng)復制成功了呢?
其它虛擬工程智能的理論并沒有上述這種直接,它們的關鍵概念是造出一個基礎雖弱,但學習能力超強的機器。比如說,可以造一張能夠無限擴張的人工神經(jīng)元網(wǎng)絡,同時給網(wǎng)絡配備以非常聰明的學習算法。
AI理論無限好,只是個中有隱憂。仿真大腦的運行速度,也許是普通人腦的2倍,10倍,甚至100倍。AI可能會修改自身程序,或者開始自創(chuàng)更加智能的系統(tǒng)版本,進行自我更新。早在1965年,統(tǒng)計學家I. J. Good就討論了自我進化型電腦的計算速度與智慧大爆發(fā)的可能性。他當時寫下了這樣的句子:
“人類所需要創(chuàng)造的最后一個發(fā)明,就是第一臺超級智能機器?!?/p>
如果我們有朝一日制造出了超智能機器,那么我們就需要謹慎考慮它的安放之所。沒有一個維護虛擬世界的人類工程師可以保證百分百不會被AI拿下。科學家將來創(chuàng)造的AI虛擬環(huán)境將能夠輸出信息,還能對接現(xiàn)實環(huán)境,在現(xiàn)實環(huán)境中收集信息。雖然聽起來無害,但是我們很難預測,允許超智能體介入我們的現(xiàn)實世界的話會帶來什么后果,即使這整個介入過程僅局限于實驗室之中。
回到Y(jié)udkowsky的盒子理論。AI也許會用到一種令人毛骨悚然的方法迫使你最終打開盒子,那就是逆轉(zhuǎn)情境之時。
現(xiàn)在,你身處一個盒子里,和一個超智能AI對話。AI向你解釋,它通過強大到難以想象的運算能力,成功創(chuàng)造出了一萬億個虛擬體。它和虛擬體進行對話,虛擬體需要決定要不要打開一個它“給”的盒子。這些虛擬體都有著對它們自身“生活”的記憶,并且無法推斷現(xiàn)實與幻象。
AI繼續(xù)說,每一個打開了盒子的虛擬體,都會進入到無限的精神愉悅狀態(tài)中;沒有打開盒子的虛擬體,則會被判以永恒的煉獄折磨。
AI特別強調(diào),你,作為這1萬億面臨抉擇的虛擬體的渺小一員,不得不得出結(jié)論——你極有可能只是AI孕育出來的萬億靈魂之一,而不存在其他可能性。你要做選擇,就必須根據(jù)結(jié)論做選擇。
那么你,是想要打開盒子,放了AI,還是應下這可怕的詛咒?你不可能比永遠棋高一著的AI想出更好的計謀;在不確定AI在想什么的情況下,你也猜不出它是否在撒謊。你最多只可能通過堅決無視幾類特定的誘導手段,來抵抗AI的攻心術。迄今,很多人工智能理論家仍就這個話題爭論不休。
MIRI的目標是“確保超越人類智慧的人工智能的發(fā)明,會為世界帶來積極影響”。我們可以暢想人類的發(fā)明將來會有怎樣的衍生物,但當我們試圖塑造及理解比我們更復雜的力量時,我們也須直面深淵般的不確定性。
假如萬一你真的遇見了造物主一般的、可以創(chuàng)造無數(shù)虛擬宇宙的人工智能,它很有可能會告訴你,“你”也只是它造出來的一段小小的虛擬記憶(假如渺小的你有幸與它對話的話)。
via motherboard
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。