1
本文作者: 井三胖 | 2015-03-21 09:50 |
曾經,偉大的物理學家史蒂芬·霍金先生說過,AI(人工智能)技術的發(fā)展或許會帶來人類的“終結”。而今特斯拉的CEO埃隆·馬斯克也宣稱,“人工智能AI技術的潛力將會比核武器更加恐怖。”但就在不久前,這位霸氣總裁毫不猶豫的向“keep AI beneficial”研究計劃投資了1000萬美元。
而其實真正讓霍金和馬斯克本人感到“恐怖”的AI技術并不是智能手機之類的應用拓展,例如Siri(其實這只能算是AI的初級版)。AI最大的潛力在于“超智能/superintelligence”——意即隨著不斷發(fā)展,AI的“智商”甚至會超過人類,并且征服人類。
話雖如此,但硅谷的公司們仍然堅持不懈的拓展著AI領域。截至到今年1月份,一共有超過170家硅谷創(chuàng)業(yè)公司在從事著AI相關的工作。而領頭羊巨頭企業(yè)們也是爭先恐后紛紛試水,F(xiàn)acebook投入很大的心血建造了自家的AI研究實驗室,而Google也在去年豪擲4億美元收購了AI技術公司DeepMind。
于是我們的問題當然來了,難道這些“頭腦最發(fā)達”的公司們不明白“AI有害論”嗎?他們?yōu)槭裁匆绱丝粗谹I?
蒙特利爾大學機器學習實驗室的主任Yoshua Bengio表示,“我接觸到的許多人都開始擔心AI技術的快速發(fā)展會帶來的惡性后果?!?/p>
如果AI技術變得“既不人工又不智能”想必才是最大的災難。對于AI公司來講,當務之急是設定界定策略,告訴用戶AI不應該淪為好萊塢動作片中的“武器道具”。AI領域的確需要法律法規(guī)的監(jiān)控,舉個非常重要的方面,例如無人車的監(jiān)管。
除此之外,AI電影公司Vicarious的聯(lián)合創(chuàng)始人Dileep George還表示,“研發(fā)AI技術是一項漫長的過程,需要從建造原型做起,直到產品能夠符合大眾的標準?!盕acebook AI實驗室主管、紐約大學數(shù)據研究中心主任Yann LeCun強調說,以目前的技術,研發(fā)出能夠跟人類“并駕齊驅”的AI的確有很大的難度,但這并不是完全沒可能,因為“超智能”便預示著未來的方向。
via popsci
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。