0
本文作者: 天諾 | 2015-03-23 16:00 |
別幻想超級智慧的AI(人工智能)了,先去考慮下那些愚蠢的算法吧 。
你要做好思想準(zhǔn)備,五月份就要上映《復(fù)仇者聯(lián)盟2:奧創(chuàng)紀(jì)元》,在這之前的幾周時間里,不少科技網(wǎng)站的編輯和寫手可能會對AI大加批判,屆時會有一大波文章來闡述AI給現(xiàn)實生活帶來的威脅。無論《復(fù)仇者聯(lián)盟2》是否會打破票房紀(jì)錄,至少給我們帶來了另外一種視角,讓我們可以“奧創(chuàng)”的形式,重新審視AI暴動。
開發(fā)奧創(chuàng)(由著名影星詹姆斯·斯派德配音)的初衷是維護(hù)世界和平,保護(hù)人類免受其他威脅,但最終它為了追求完美,決定將人類斬盡殺絕。這是好萊塢最新一次,當(dāng)然肯定不會是最后一次將人工超級智能融入到電影里面。媒體自然不會錯過這個好機(jī)會,一定也會大肆報道,繼而引發(fā)人們對AI的深深思考。
能滅絕人類的,是愚蠢的AI。
AI絕不會完全無害。一些自主算法會對人類造成傷害,這是不可避免的。但是對待AI可能造成的風(fēng)險,還需要進(jìn)一步評估,至少頭腦需要保持一點冷靜。就像太空中廢棄的衛(wèi)星,你需要識別它們可能造成的危害,然后再去選擇是把他們變成太空垃圾,還是進(jìn)行廢物利用。
有害的AI可能和人們所想的超級智能完全不同,它可能不會像奧創(chuàng)一樣,而能毀滅人類的AI可能非常愚蠢。
種族主義
在AI安全概念的背后,有一股很明顯的勢頭。今年一月,非營利性組織Future of Life Institute發(fā)布了一份AI安全公開信。但這不是一次業(yè)余的作秀,因為除了很多不明真相的群眾,一些專業(yè)人士也參與其中,包括了計算機(jī)科學(xué)家,機(jī)器人學(xué)家,以及法律專家。
Ryan Calo就是其中之一,他是華盛頓大學(xué)的法律教授,主攻機(jī)器人領(lǐng)域的法律問題。對Calo來說,AI的短期風(fēng)險其實和智能無關(guān),而是所謂的自主權(quán)。
“我很擔(dān)心會出現(xiàn)一些意想不到、又萬分緊急的狀況。比如,或許在未來的某天,你會忽然發(fā)現(xiàn)很多人無法貸款和信用卡,而造成這種狀況的竟然是一個AI算法,因為算法發(fā)現(xiàn)他們的主要關(guān)系網(wǎng)絡(luò)為非裔美國人。整個過程中,沒有人持有種族主義態(tài)度,這無疑是個巨大的丑聞?!?/p>
Calo的假設(shè)確實很令人憂心。首先,現(xiàn)實世界中就存在某些人的權(quán)利被剝奪的狀況,因此有時候你根本無法分辨哪些狀況是AI造成的,哪些又是人為造成的。在AI的背景下,自主權(quán)的定義就是無需人為干預(yù)。比如程序員可能不會把某些事關(guān)聯(lián)起來,但AI卻能通過一些純粹的定性分析,實現(xiàn)它們的“目的”。顯然,這些AI做出的結(jié)論可能不會準(zhǔn)確,但如果你想想看,一些數(shù)據(jù)代理商和廣告商正是無恥地利用這種AI技術(shù),追蹤人們的線上活動,收集我們訪問網(wǎng)站的各種信息。
Calo所舉得那個種族主義例子可能是由于AI連接到錯誤的“點”上造成的。實際上,“種族主義”并不是一個最具說服力的AI例子,現(xiàn)如今很多更高級的行為追蹤軟件就在做著不少“骯臟的勾當(dāng)”,在這些軟件面前,一個小小的“種族主義”算法真的是小巫見大巫了。
另外在Calo眼里,AI其實不算是個真正的“種族主義者”。一個沒有觀點的機(jī)器是不可能帶有任何偏見的。但是,社交和情感智能的缺乏卻會帶來巨大問題。
“必須從法律上來管理風(fēng)險,讓受害者能夠得到補(bǔ)償。但實現(xiàn)這種方式,需要找到罪魁禍?zhǔn)?,而可能的情況是會出現(xiàn)很多受害者,但找不到作惡者。法律此時也會顯得蒼白無力了?!?/p>
對于由AI驅(qū)動的機(jī)器人,如果讓他們殺人,此時可能會產(chǎn)生戲劇性的影響。在科幻小說里,武裝機(jī)器人經(jīng)常出現(xiàn)戰(zhàn)場暴行,比如一個中央超級智能給他們下達(dá)殺人的指令。而更有趣的問題出現(xiàn)在與遠(yuǎn)程通訊機(jī)器人的聯(lián)系中斷時。
當(dāng)軍事機(jī)器人進(jìn)攻某個目標(biāo)時,一般而言都會有人類參與。但當(dāng)無人機(jī)或地面機(jī)器人忽然通訊中斷,又會出現(xiàn)什么狀況呢?是停止?還是撤退,又或是暴露在敵人的炮火中,或被俘虜?去年六月,美國國防部高級研究計劃局旗下的Robotics Challenge項目就進(jìn)行了一次機(jī)器人模擬戰(zhàn)爭,他們的答案是通訊中斷后,繼續(xù)完成任務(wù)。
此外,還可能出現(xiàn)其他狀況,比如武裝機(jī)器人很可能引發(fā)戰(zhàn)爭罪行,因為他們可能忽然把毗鄰戰(zhàn)場的平民百姓列為進(jìn)攻目標(biāo),也不會放過戰(zhàn)敗投降的士兵。也有一些容易界定的情況,比如機(jī)器人出現(xiàn)故障,會向人群開火,濫殺無辜。
問題的重點在于,由于AI可以獨立執(zhí)行殺戮行為,沒有人能對此負(fù)責(zé)。
“在戰(zhàn)爭罪中,上級必須要對下屬所犯下的罪行負(fù)責(zé),也就是說從法律角度上來看,上級必須有效地控制下屬。但如果軍事指揮官無法有效控制機(jī)器人(AI機(jī)器人可以自主選擇殺人),是否意味著他們就沒有責(zé)任?”
機(jī)器人專家和各國需要為各種情況做好準(zhǔn)備,明確道德和法律之間的灰色底單,因為一旦無知的機(jī)器人自主權(quán)泛濫,那么許多暴行將會逃脫歷史的懲罰。
當(dāng)然,絕大多數(shù)的AI還是比較安全,即便出現(xiàn)問題,也不至于殺人。毋庸置疑,一些自主選股軟件又會再次浮出水面,繼而有可能再次引發(fā)2010年那場“閃電崩盤”的股災(zāi)——當(dāng)時道瓊斯指數(shù)在短短幾分鐘時間里下跌1000多點。其他AI也會曲解敏感數(shù)據(jù),引發(fā)一系列悲劇發(fā)生,一旦數(shù)據(jù)分析有誤,工廠里干活的機(jī)器人和養(yǎng)老院里的機(jī)器人會錯誤對待人類。
上面這些例子其實并不算太嚴(yán)重,因為還有很多聳人聽聞的,雖然研究人員和機(jī)器人專家鉆研AI安全是非??菰锏模侨绻徽嬲龑Υ脑?,很多悲劇是無法避免的。
事實上,AI還有一個潛在缺陷,那就是假設(shè)它比實際上的還聰明。隨著越來越多的機(jī)器人融入到人類的生活,高估AI能力很可能會導(dǎo)致實際傷害?!拔磥淼姆较?,是機(jī)器人與人類并肩工作,”Tony Stentz說道,他是卡耐基梅隆大學(xué)機(jī)器人技術(shù)工程中心主管。Stentz理想中的未來工廠,是機(jī)器人的力量與人類的思維完美結(jié)合,這種團(tuán)隊是非常有前途的。但是AI研究人員和機(jī)器人專家必須要讓機(jī)器人明白自己的目標(biāo)和能力,否則為造成非常大的安全隱患。
高估AI會導(dǎo)致一系列問題。在美國馬里蘭州,當(dāng)?shù)乇O(jiān)獄已經(jīng)開始使用算法來評估哪些假釋犯人需要嚴(yán)加監(jiān)管。軟件開發(fā)人員肯定覺得自己的產(chǎn)品對于量刑建議有非常大的幫助,但問題是,當(dāng)涉及到如此重大的決定時,依靠一個智能軟件真的靠譜嗎?
不僅如此,一旦AI自主權(quán)得不到有效控制,很可能出現(xiàn)所謂的“滑坡效應(yīng)”,引發(fā)全球危機(jī)。比如工人本可以在工作中避免受傷,但是由于算法錯誤卻導(dǎo)致殘疾;還有人可能受智能選股軟件的誘導(dǎo),把畢生的積蓄砸進(jìn)股票市場,最終家破人亡??膳碌氖?,這些受害者可能會忽然發(fā)現(xiàn),自己竟然得不到法律保護(hù),甚至連財務(wù)追索權(quán)都沒有(靠機(jī)器人賺錢的想法的確有些愚蠢)。
這些AI安全問題,正是研究人員和專家需要考慮的,他們也必須要考慮各種非預(yù)期后果,如果說我們無法阻止超級AI接管世界,但至少,我們得明白它們會給我們造成哪些潛在影響。
VIA POPSCI
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。