1
本文作者: Rechange | 2015-04-08 16:25 |
在過去的一年中,牛津大學哲學系教授Nick Bostrom對未來AI(人工智能)繼續(xù)發(fā)展所帶來的潛在風險,表示了深深的擔憂,并對此作出了警告。雖然他表示自己的警告已經(jīng)獲得了一些致力于推動AI發(fā)展公司的關(guān)注,但實際上他的一些想法仍然遭到了不少業(yè)界人士的抵制。
自從他的新書《 Superintelligence》(超級智能) 在去年夏天出版后,包括伊隆·馬斯克、史蒂芬·霍金以及比爾·蓋茨等杰出的科技人士紛紛對其表示了支持,另外Google也成立倫理委員會來監(jiān)督AI技術(shù)的發(fā)展。
上周,Bostrom與MIT技術(shù)評論的編輯進行了交流,并針對他為使AI研究人員意識到自己工作的風險性所作出的努力,進行了一系列的談論。
你把AI的風險性置于核爆炸和流行病之上,對于這一說法你經(jīng)過了怎樣的考慮?
有許多事都會導致一場災難的到來,但實際上真正能夠威脅到人類生存的少之又少,但AI恰恰是其中最可能的一個。它看起來可能僅僅只需要一小部分人為之努力,所需要的資源也只是很小的一部分,但其產(chǎn)生的影響卻是針對全人類的。另外譬如核爆炸等危險,實際上已經(jīng)有很多團體或者組織在密切的關(guān)注了,但顯然AI還沒有。
那么氣候變化呢,它被認為是目前人類面臨的最嚴峻問題,你怎么看待?
在我看來氣候變化所帶來的風險其實非常小,當前我們對于氣候變化的模型實際上存在問題,因為我們更多的是將地球上最糟的部分用作模型進行分析,然后我們不得不用一些看起來完全不太可能的地球工程去嘗試改善它。而實際上,它所帶來的風險遠遠不及AI所帶來的倫理道德風險嚴重,因為直到今天為止,人們?nèi)匀辉诖罅Φ娜グl(fā)展它,推進它的研究,而這將帶來更多未知的風險。
如果有人表示自己的公司擁有足夠強大的AI技術(shù),你會對他給出怎樣的建議呢?
第一個建議是去進行一些關(guān)于AI安全的內(nèi)部研究,這個問題非常重要,它可以建立起AI研究員和認為AI存在安全問題的人之間的良好關(guān)系,可以使得其在產(chǎn)生一些好的想法時擁有良好的氛圍去實施。
Google、Facebook等科技公司在AI的研究中一直處于領(lǐng)先的地位,你是否有和他們進行過一些交流?
我不能透露名字,不過他們在這一領(lǐng)域的興趣是顯而易見的。目前來看,在AI在不斷發(fā)展的過程中,已經(jīng)有部分人意識到了其安全問題,這使我感到非常高興,它意味著一顆種子的播撒。
AI可以說還沒影,那現(xiàn)在該進行什么樣的研究?
現(xiàn)在的研究主要是對問題所在和一些概念有更清晰的界定,雖然還沒什么成果,但沒有它是無法進行下一階段研究的,即技術(shù)研究。
對于AI技術(shù)項目,能舉個例子嗎?
比如設計一個AI的動力系統(tǒng),使得AI不會抗拒程序員去修改目標?我想這應該是一整套的方法和工具。我認為這些都應該在AI被發(fā)布之前進行。
但這些似乎離Google等公司在做的項目有很長的距離。
對,這一領(lǐng)域的挑戰(zhàn)之一就是,在有一個可以利用的系統(tǒng)前,就要做出一些有用的工作。
低于人類層面的AI還會造成問題嗎?
這些問題看起來更真實,范圍更小,也更迫切。目前在一些基礎的比賽上,多是算法交易、無人機、自動化與其對勞動力市場的影響,以及系統(tǒng)是否可以進行有意或無意的識別等。我不否認目前這些問題的存在,我只是更關(guān)注當AI技術(shù)達到一定高度時所產(chǎn)生的無法解決的問題。
你說目前沒有人可以預測離那樣的AI還有多遠,那是否有一些信號比如一些特定的進步來預示這一切呢?
可能會有一些重大的突破發(fā)生,比如有更多的常識推理能力,在不同領(lǐng)域的學習能力以及更靈活的規(guī)劃能力。
我們已經(jīng)經(jīng)歷了兩個炒作時期,以及對其幻想破滅的時期,目前我們很可能處在第三個炒作時期,目前技術(shù)發(fā)展受到了限制,而接下來的技術(shù)進步還需要很長的一段時間。但也可能過了這個低谷,就會迅速發(fā)展。
如果這一切是真的,我們是否可以保持一種較為樂觀的態(tài)度?
從長遠來看,我認為情況要么最壞,要么最好,不會處于中間。我希望會是好的方面。
Via mit
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。