1
本文作者: 井三胖 | 2015-03-21 09:50 |
曾經(jīng),偉大的物理學(xué)家史蒂芬·霍金先生說過,AI(人工智能)技術(shù)的發(fā)展或許會(huì)帶來人類的“終結(jié)”。而今特斯拉的CEO埃隆·馬斯克也宣稱,“人工智能AI技術(shù)的潛力將會(huì)比核武器更加恐怖?!钡驮诓痪们?,這位霸氣總裁毫不猶豫的向“keep AI beneficial”研究計(jì)劃投資了1000萬美元。
而其實(shí)真正讓霍金和馬斯克本人感到“恐怖”的AI技術(shù)并不是智能手機(jī)之類的應(yīng)用拓展,例如Siri(其實(shí)這只能算是AI的初級(jí)版)。AI最大的潛力在于“超智能/superintelligence”——意即隨著不斷發(fā)展,AI的“智商”甚至?xí)^人類,并且征服人類。
話雖如此,但硅谷的公司們?nèi)匀粓?jiān)持不懈的拓展著AI領(lǐng)域。截至到今年1月份,一共有超過170家硅谷創(chuàng)業(yè)公司在從事著AI相關(guān)的工作。而領(lǐng)頭羊巨頭企業(yè)們也是爭(zhēng)先恐后紛紛試水,F(xiàn)acebook投入很大的心血建造了自家的AI研究實(shí)驗(yàn)室,而Google也在去年豪擲4億美元收購了AI技術(shù)公司DeepMind。
于是我們的問題當(dāng)然來了,難道這些“頭腦最發(fā)達(dá)”的公司們不明白“AI有害論”嗎?他們?yōu)槭裁匆绱丝粗谹I?
蒙特利爾大學(xué)機(jī)器學(xué)習(xí)實(shí)驗(yàn)室的主任Yoshua Bengio表示,“我接觸到的許多人都開始擔(dān)心AI技術(shù)的快速發(fā)展會(huì)帶來的惡性后果?!?/p>
如果AI技術(shù)變得“既不人工又不智能”想必才是最大的災(zāi)難。對(duì)于AI公司來講,當(dāng)務(wù)之急是設(shè)定界定策略,告訴用戶AI不應(yīng)該淪為好萊塢動(dòng)作片中的“武器道具”。AI領(lǐng)域的確需要法律法規(guī)的監(jiān)控,舉個(gè)非常重要的方面,例如無人車的監(jiān)管。
除此之外,AI電影公司Vicarious的聯(lián)合創(chuàng)始人Dileep George還表示,“研發(fā)AI技術(shù)是一項(xiàng)漫長的過程,需要從建造原型做起,直到產(chǎn)品能夠符合大眾的標(biāo)準(zhǔn)?!盕acebook AI實(shí)驗(yàn)室主管、紐約大學(xué)數(shù)據(jù)研究中心主任Yann LeCun強(qiáng)調(diào)說,以目前的技術(shù),研發(fā)出能夠跟人類“并駕齊驅(qū)”的AI的確有很大的難度,但這并不是完全沒可能,因?yàn)椤俺悄堋北泐A(yù)示著未來的方向。
via popsci
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。