1
電腦是如何做出選擇的呢?
這個問題需要分兩種情況回答。從過去的眼光來看,電腦所做的選擇都是程序員寫程序時事先編寫好的,當電腦遇到問題時,只需按照事先編寫好的程序進行選擇就行。不過,隨著人工智能的崛起,深度學習技術開始占了上風,現(xiàn)在電腦做選擇可沒有過去那么非黑即白了。但是,技術人員開發(fā)程序時大多數(shù)不會考慮這一點,他們大多只是選擇一個能產出正確結果的算法而已,沒人會在乎這個結果是如何得來的。
當然,這也不能全怪技術人員,畢竟當程序的準確率達到99%時,還有誰會在乎其深層內涵呢?不過,既然一個馬蹄鐵就能毀掉一場戰(zhàn)爭,那么我們就不得不注意到那剩下的1%。如果這不起眼的1%會涉及到生死抉擇,那么搞清楚電腦如何思考就變成了重中之重。
就拿最近鬧的沸沸揚揚的特斯拉Model S致死事故來說,為什么這輛車的自動駕駛系統(tǒng)沒能識別前方的拖掛卡車呢?眼下,我們大致知道了原因(那天天氣晴朗陽光充足,拖掛車漆成了白色,電腦沒能將其與天空區(qū)分開),但我們卻不了解電腦做決定的過程,或者說如何在未來避免這種情況再次發(fā)生?!拔蚁?,特斯拉的工作人員肯定也在想著同樣的問題:這種情況到底是怎么發(fā)生的呢?那么大一輛車,為什么電腦就沒能識別出來呢?”Dhruv Batra教授說道,他是弗吉尼亞理工大學的機器感知專家。“如果只是靠車上的‘黑匣子’來分析事故,我們永遠也找不到答案?!?/p>
此外,Batra教授認為讓AI的決策透明化與選擇一種合適的教育方式同樣重要。一個差老師只知道要學生死記硬背,靠記憶力應付考試,而好老師則注重方法的傳授,他會讓學生解釋自己得出答案的全過程。對待電腦,人類也要當個好老師,讓它們將自己的思考過程娓娓道來。
近日,Batra教授的兩個學生Abhishek Das和Harsh Agrawal針對該問題進行了一番研究。他們讓兩個人和兩臺專攻物品識別的神經(jīng)網(wǎng)絡機器進行圖像識別比賽,隨后在比賽中觀察他們眼神的落點,并對比人與機器在選擇過程中的不同。因此,當聽到“圖中男人的鞋是什么顏色?”的問題時,你可能覺得人和機器的眼睛都會齊刷刷的望向圖片底部。不過,Das和Agrawal發(fā)現(xiàn),現(xiàn)實與你的想象有所不同。
為了對比人與機器的不同,研究人員打造了“注意力”熱度圖,熱度圖可以疊加觀察。如果結果完全無重疊,參數(shù)為0;如果完全重疊,參數(shù)則為1。結果顯示,人類的熱度圖參數(shù)為0.63,而機器則只有0.26(注意力跑偏了)。
要解釋這一差別其實很難。舉例來說,當要求人和機器回答“遮擋窗戶的是什么?”(百葉窗)的時候,人的眼神會直接聚焦在窗戶上,而機器卻謎一般的將精力集中在了床上。
Batra教授認為,這一異?,F(xiàn)象的出現(xiàn),是神經(jīng)網(wǎng)絡的訓練方法所致。由于英文的特殊性,在向神經(jīng)網(wǎng)絡展示臥室(bedroom)圖片時,它們會首先注意到“bed”(床)這個詞,因此在聽到問題后算法會首先將注意力集中在床上?!八鼈兓卮饐栴}時首先會向自己的數(shù)據(jù)庫求證,而不像人類一樣注重實踐?!盉atra教授說道。
這樣的誤差在解決一些小問題時絕對無傷大雅,但如果機器學習算法未來想擔起大任,研究人員就要搞清楚它們是如何做出抉擇的。
在談到如何發(fā)展負責任的AI時,微軟CEO列出了6點關鍵目標,其中透明度就排在第二?!?strong>我們需要的不只是智能的機器(intelligent machines),而是可理解的機器(intelligible machines);不只是人工智能(artificial intelligence),還要是共生智能(symbiotic intelligence)。納德拉說道?!凹夹g要能理解人類,而人類也必須要了解機器。人類應該明白技術是怎樣「看」這個世界、「分析」這個世界的,這樣能讓道德和設計攜手并進?!?/p>
Batra教授認為,這些步驟雖然麻煩,但他是人類通往未來的必經(jīng)之路。“如果我們要將AI引入日常生活,它們就要學會與人類溝通,但前提是人類要建立起對它們的信任?!彼f道。“到時,一定有人會問AI‘你為什么要說這些?。俊瘷C器人則需要給出一個令人信服的答案。”未來,人工智能的訓練主要還是靠數(shù)據(jù)庫,但研究人員也應及時將其行為與人類做對比,找出差別之處來進行針對性的修正。
雖說這樣會增大訓練深度學習和神經(jīng)網(wǎng)絡系統(tǒng)的成本和時間,但Batra教授相信這些花費是必要的。“這有利于人與機器之間信任的建立,”他說道?!巴瑫r我們還能增進人與機器之間的相互理解,提高人工智能的表現(xiàn)?!?/p>
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。