11
本文作者: Maximum | 2014-11-04 18:35 |
不久前,Elon Musk在一檔談話節(jié)目中表示,自己投資人工智能的研究只是為了實(shí)時(shí)掌握這個(gè)“惡魔”誕生的時(shí)間。Musk擔(dān)心人類會(huì)成為“人工智能”這個(gè)超級(jí)生命的“生物加載程序”。此言一出立刻引起了不少人工智能領(lǐng)域?qū)<业姆瘩g,認(rèn)為Elon Musk不過是在嘩眾取寵,他對人工智能的理解不過是一知半解而已。對于社會(huì)而言,這樣不負(fù)責(zé)任的言論只會(huì)引起公眾對人工智能不必要的擔(dān)憂。Musk真的只是在嘩眾取寵,公眾對人工智能的擔(dān)憂真的只是杞人憂天?我不這么認(rèn)為。
此人工智能,非彼人工智能
科學(xué)家們常常指責(zé)Musk與霍金并非人工智能領(lǐng)域的專家,對于人工智能的研究現(xiàn)狀并不了解,往往只是在根據(jù)自己的臆測來做出判斷。但實(shí)際上,對于公眾而言,Musk與霍金口中的人工智能才是真正的“人工智能”—— 由人類所創(chuàng)造的類人的智能,而科學(xué)家的定義——人工智能就是研究如何使計(jì)算機(jī)去做過去只有人才能做的智能工作——?jiǎng)t往往顯得過于專門而狹隘。就目前的研究狀況而言,現(xiàn)有的所謂人工智能都不過是一個(gè)嚴(yán)密而復(fù)雜的程序而已,它的一切行為都是可以根據(jù)寫入的代碼進(jìn)行預(yù)測的,科學(xué)家們自然不會(huì)擔(dān)心因某一個(gè)程序的失控,而對人類造成毀滅性的災(zāi)難。
Elon Musk與霍金對人工智能的擔(dān)心,其實(shí)質(zhì)上是對掌握了科學(xué)之力的人類的人性的一種不信任的假設(shè),與其說是在擔(dān)心人工智能的失控,倒不如說是在擔(dān)心人類本身能否運(yùn)用好科學(xué)的巨大力量。那么這種帶有幻想色彩的人工智能真的可以誕生嗎?可能!要知道人類也是由物質(zhì)構(gòu)成的,并沒有什么所謂的靈魂這類神圣的成分。阻礙人工智能研究的并不是傳統(tǒng)的技術(shù)上的瓶頸,而是人類對自身的探索還不夠深入。如果人類破解了自我意識(shí)的誕生之謎,以程序的方式將答案表述出來也并非不可能。
人工智能尚處于“嬰兒期”,距“天網(wǎng)”誕生尚遠(yuǎn)?
不少人工智能專家指出,人工智能的研究已經(jīng)陷入瓶頸多年。目前“最聰明的人工智能產(chǎn)品也僅僅是與一個(gè)剛會(huì)走路的孩子智力相當(dāng),而這還僅限于處理一些需要外部幫助的任務(wù)(如信息召回)”。人類目前的機(jī)器人技術(shù)已經(jīng)有了長足進(jìn)步,但絕大多數(shù)機(jī)器人連“撿球”、“跑步”這類簡單的任務(wù)都做不好。這樣看來,似乎公眾對于紐約州某位前州長某一天突然出現(xiàn)在自己面前的疑慮只是多余。但事實(shí)上,人類科技的進(jìn)步從來都不是以某種按部就班的計(jì)劃緩慢前進(jìn)的,而是以一種幾何級(jí)的速度在發(fā)展。往大的方面說,在原子彈爆炸之前,沒有人能想象人類能夠掌握核能這種可怕的力量;往小的方面說,在喬布斯發(fā)布iPhone之前,沒有人能想到蘋果可以在如此小的體積里塞進(jìn)一臺(tái)電腦。
目前的人工智能的確還算不上是人類的威脅,但隨著技術(shù)的進(jìn)步,一旦人類突破了某個(gè)關(guān)鍵的技術(shù)節(jié)點(diǎn),人工智能將會(huì)以一種不可阻擋的趨勢降臨人間。人工智能的可怕之處不在于其誕生時(shí)具有多么強(qiáng)大的智慧與能力,而在于真正的人工智能可以在日后的學(xué)習(xí)中不斷地完善、進(jìn)化自己,人類十萬年的進(jìn)化史,人工智能也許只要用很短的時(shí)間就可以走完,并且依托于人類目前已經(jīng)取得的成就,人工智能還有可能進(jìn)化成為超越人類的超級(jí)生命。這就是所謂的“智能爆炸”。依人類短暫的科學(xué)史來看,“智能爆炸”是有可能發(fā)生的,而且一旦發(fā)生,人類恐怕就無力阻止。這種高于人類的存在與其所具備的毀滅人類的可能,才是霍金與Musk所擔(dān)憂的“存在風(fēng)險(xiǎn)”。雖然我不主張“黑暗森林”式的消除威脅,但對技術(shù)的運(yùn)用我們應(yīng)當(dāng)謹(jǐn)慎。
我們可以指望人工智能的道德嗎?
科學(xué)家在道德層面上對于人工智能的討論往往自相矛盾,一邊說真正需要防范的是所謂“惡意”的人工智能,一邊又說人工智能不會(huì)落入“倫理困境”。這里問題的實(shí)質(zhì)是在探討人工智能具有道德意識(shí)的可能性。如果人工智能具有道德感的話,那么“惡意”的人工智能就可能是存在的,人類的“倫理困境”也會(huì)困擾人工智能;而如果人工智能不具備道德感的話,“倫理困境”自然就不存在了,“惡意”也失去了成立的前提。
人工智能會(huì)有道德感嗎?很難。人類的道德其實(shí)是社會(huì)的產(chǎn)物。人工智能作為一個(gè)程序而言,很難想象其能夠產(chǎn)生社會(huì)這樣的存在。機(jī)器人三大定律與其補(bǔ)充規(guī)則,看起來似乎完美無缺,但很多時(shí)候依然會(huì)出現(xiàn)漏洞;而道德很多時(shí)候并不是完美的規(guī)則,依賴人類對人工智能進(jìn)行道德編程,也是一個(gè)不可能完成的任務(wù)。沒有道德、毫無人性的人工智能的行為是人類難以預(yù)測的。我們必須對其擁有足夠的警惕。
現(xiàn)代人類科學(xué)的發(fā)展是人類歷史上的一個(gè)奇跡,我們已經(jīng)生活在幾十年前的所謂的“科幻”世界了。科技在給我們帶來便利的同時(shí),也帶來了污染與核戰(zhàn)的威脅,我們應(yīng)當(dāng)對技術(shù)的運(yùn)用抱有敬畏之心。如果我們只是追求技術(shù)的進(jìn)步,而不去防范技術(shù)被濫用的風(fēng)險(xiǎn),"咚咚",是終結(jié)者在敲門。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。