10
本文作者: 金楠 | 2015-05-18 12:03 |
(作者聲明:以下內容僅代表個人觀點)
當下正在熱映的兩部好萊塢大片《復仇者聯(lián)盟2》和《超能查派》,其中都出現(xiàn)了機器人主角:奧創(chuàng)與查派,它們雖然在人設上大有不同,可歸根結底,都是人工智能主導的生命體。
但你可不要以為電影里的場景距離你遙不可及,其實“人工智能”這一概念早在世界上第一臺計算機埃尼阿克問世后不到十年就被提出了,而在當下,人工智能更是早已已經(jīng)布滿在你的身邊——遠一些像IBM研發(fā)出的超級國際象棋電腦“深藍”,近一點像翻譯軟件、Siri和無人駕駛,其實都是人工智能,只不過大部分人工智能在實現(xiàn)和普及以后,人們就只稱呼它為“智能”而已。
不過,相比較普通人對于人工智能的好奇和期待,一些科學家和行業(yè)巨頭們卻對于人工智能的未來發(fā)展抱以擔憂,其中,包括史蒂夫·霍金、比爾·蓋茨和埃隆·馬斯克。比如霍金很早之前就表示,人工智能是人類歷史上出現(xiàn)過的最可怕的事物;而馬斯克也在麻省理工的演講中提到,人工智能將成為人類“最大的生存威脅”。
這似乎很難以理解,因為無論是“深藍”還是Siri,或是無人駕駛等等,看上去似乎滿滿都是利好的一面,是科技進步的體現(xiàn),那為什么我們還是恐懼它們呢?
人工智能的分類
要回答這一問題,先要搞清楚人工智能的分類。人工智能分為弱人工智能、強人工智能、超人工智能三種,而它們本身也是循序漸進的發(fā)展路線關系。包括“深藍”和Siri,其實只屬于弱人工智能,而真正令巨頭們感到憂慮的,主要是后兩者。
弱人工智能目前在生活中已經(jīng)非常普遍,其特點是可以執(zhí)行某種單獨的能力,比如檢索信息、生產(chǎn)操作等等。人們對于弱人工智能的關注點主要在于,它存在一定的替代效應,比如生產(chǎn)用的機器人,在其可以于部分生產(chǎn)環(huán)節(jié)里代替人力資源之后,就可能會造成人類的工作流失;
而強人工智能,是指達到人類腦力活動級別的智能,它不僅可以執(zhí)行指令,還可以思考、學習、理解,乃至進行抽象思維,比起弱人工智能,強人工智能實現(xiàn)起來的難度非常之大,關鍵就在于它需要具備 “自我意識”——這意味著它和其它被人類研發(fā)出來的技術,比如核武和克隆不同,因為它可能會自己做點什么;不過目前,人工智能雖然已經(jīng)在多數(shù)需要思考(主要是計算)的領域上超過人類,但在一些人類不需要思考就能完成的事情上(比如下意識躲避飛來的球),它們還差的很遠;
而超人工智能顧名思義,就是超出人類自身能力的人工智能,包括在科研、社交、生產(chǎn)領域等等,超人工智能都將比人類本身要更加聰明強大——而這一點,也是最令人擔憂的,因為如果比人類更強大的超人工智能普世之后,人類自身,還有存在的必要和可能嗎?
對超人工智能的恐懼,來源于人類的無法預知
在霍金、蓋茨和馬斯克這些悲觀派眼中,強人工智能尚有一定可控性,但超人工智能則不一樣,因為后者令人害怕的地方,在于人們對其一無所知——是的,人類最多能用目前已有的東西,去預測將來可能發(fā)生的事情,但是,超人工智能的能力是超過人類的,這意味著許多人類目前無法解決,甚至無法預知的東西,對超人工智能來說則可能不是問題,換言之,人類也無法預知超人工智能。
而現(xiàn)階段那些表示人工智能不值得擔心的人,包括百度人工智能負責人吳恩達,都是基于人工智能還有很長的發(fā)展時間這個點——換言之,他們并非是否認人工智能可能帶來毀滅,而是對于這中間的時間,以及這段時間內人類自身技術的發(fā)展表示樂觀,他們認為人類有能力在超人工智能引起災難之前,把一切隱患環(huán)節(jié)都鎖死和控制住,就像現(xiàn)在斷電斷網(wǎng),就能遏制弱人工智能的“生命”一樣。
也就是說,時間是一個關鍵,它既關系著人工智能的發(fā)展程度,也決定著人類是否有足夠的應對和控制時間,那么,在時間上我們能樂觀嗎?
寧愿杞人憂天,不可自欺欺人
霍金給出的預計是100年以內,而馬斯克則激進的表示在5年之內人類就會有危險——掐頭去尾之后,這個難以確定的時間,可能就是當代人的有生之年。而很多人都知道一個道理,科技越發(fā)達,科技本身的發(fā)展速度就會越快,它既體現(xiàn)在社會環(huán)境中,也體現(xiàn)在具體產(chǎn)品至上,比如智能手機的處理能力,以及互聯(lián)網(wǎng)本身的發(fā)展,就是呈指數(shù)級遞增的,從之前到現(xiàn)在需要100年發(fā)展的東西,從現(xiàn)在到下一個節(jié)點可能只需要50年,再來就是25年。
這就是為何看似非常遙遠的超人工智能,會在這個強人工智能都還難以實現(xiàn)的當下就讓人感到恐懼的原因——因為它的開端可能很慢,但是之后會越來越快,包括動物本身的進化就是如此,現(xiàn)在所擁有的一些習性,其實是經(jīng)過了漫長時間的適應與培養(yǎng),最終沿襲下來的,然而,猿人和人類之間的差距很漫長,但普通人與高智商人群之間的距離,則就要被縮小N多倍。
也就是說,人工智能的發(fā)展,在時間和效率上,都會比人類自身的發(fā)展要快的多(除非人類控制人工智能的發(fā)展始終保持在一個相對間平衡狀態(tài)下,但這并不容易)。而就像人類不會停止自身的進步一樣,人工智能也不會停留在強人工智能階段,一旦它們達到了強人工智能,那么下一秒就會開始像超人工智能的目標飛奔過去。像阿西莫夫所向往的以人類為代表的“碳文明”與機器人為代表的“硅文明”的共存共生的局面可能發(fā)生,但可能只是一段時間而已。
而在實現(xiàn)了超人工智能之后,它們看待人類,就像人類現(xiàn)在看待動物一樣,有足夠的資本睥睨后者的低能,而屆時,人類也就像動物一樣,不再能理解超人工智能的世界了。不夸張的說,現(xiàn)階段我們預言的“背叛”(指機械可能會在沒有人為干預的條件下自主采取任何行動),到時候可能就會成為一種自然法則,而人類的社會結構,將有可能會因此而遭到毀滅。
小結
正是這種在當前有限的認知中所能試想出來的悲觀結果,才會使大佬們連番發(fā)話號召人們警惕人工智能,這同時也是作為行業(yè)領導者的他們所擁有的責任。
不過換過一面看,也許超人工智能實現(xiàn)以后,會把人類帶到一個新紀元中去——甚至是再一次進化也不是不可能。只是無論好與壞,人類都不會再是現(xiàn)在這個樣子了。這也就是為什么有人會說,超人工智能將會是人類最后一項發(fā)明的原因。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。