1
本文作者: SebastianYuan | 2016-10-11 10:40 |
編者按:如何向消費(fèi)者證明自家的汽車很安全,一直是一個(gè)困擾自動(dòng)駕駛廠商的問(wèn)題。作者認(rèn)為,由于路況的多變和復(fù)雜性,利用機(jī)器學(xué)習(xí)所實(shí)現(xiàn)的自動(dòng)駕駛在面對(duì)潛在風(fēng)險(xiǎn)時(shí)也會(huì)顯得力不從心。本文出自 IEEE,作者 Andrew Sliver, 雷鋒網(wǎng)編譯,未經(jīng)許可不得轉(zhuǎn)載。
去年秋天,媒體正在加州帕洛阿托試駕帶有自動(dòng)駕駛系統(tǒng)的特斯拉 Model S
David Paul Morris/Bloomberg/Getty Images
汽車廠商很難證明自動(dòng)駕駛汽車究竟有多安全,因?yàn)槭顾鼈冎悄芑暮诵氖菣C(jī)器學(xué)習(xí)。
卡內(nèi)基梅隆大學(xué)的計(jì)算機(jī)科學(xué)家、從事汽車制造業(yè)的 Phillip Koopman 說(shuō)道:“你不能總是覺(jué)得自動(dòng)駕駛這玩意兒一定可靠?!?/p>
早在 2014 年,一家市場(chǎng)研究公司稱自動(dòng)駕駛汽車市場(chǎng)將于 2030 年達(dá)到 870 億美元的規(guī)模。而包括谷歌、特斯拉和 Uber 在內(nèi)的許多公司均開(kāi)展了自家的計(jì)算機(jī)輔助駕駛或全自動(dòng)駕駛項(xiàng)目。這些公司或多或少都取得了一些進(jìn)展,但仍有大量的技術(shù)難題等待攻克。
有部分研究人員認(rèn)為因?yàn)闄C(jī)器學(xué)習(xí)的本質(zhì),要證明自動(dòng)駕駛汽車可以安全上路是一項(xiàng)非常困難的挑戰(zhàn),而Koopman 對(duì)此也深信不疑。
一般而言,工程師先按要求編寫代碼,然后運(yùn)行測(cè)試檢查代碼是否滿足要求。但使用機(jī)器學(xué)習(xí),要讓計(jì)算機(jī)掌控這一復(fù)雜的系統(tǒng)就不是這么簡(jiǎn)單的事兒了。
比如,處理同一天不同時(shí)間拍下的圖像或在特定環(huán)境下分辨像人行橫道、停車標(biāo)識(shí)等重要的標(biāo)識(shí)并不是寫個(gè)代碼就能解決的問(wèn)題。Koopman 說(shuō):“機(jī)器學(xué)習(xí)的難點(diǎn)就在于,你根本無(wú)法界定代碼要滿足的要求是什么?!?/strong>
多年前,工程師們就意識(shí)到傳統(tǒng)軟件是無(wú)法對(duì)相機(jī)圖像進(jìn)行分析處理的,所以他們轉(zhuǎn)而使用了機(jī)器學(xué)習(xí)算法。算法通過(guò)對(duì)樣本的處理生成一個(gè)可以解決特定問(wèn)題的數(shù)學(xué)模型。
工程師會(huì)提供許多帶有注釋的樣本——告訴計(jì)算機(jī)什么是停車標(biāo)識(shí),什么不是。這些算法會(huì)把圖像分像素塊解析,提取當(dāng)中特征像素塊來(lái)建立運(yùn)算模型。當(dāng)計(jì)算機(jī)收到新圖像時(shí),它會(huì)將這些圖像在這個(gè)模型中運(yùn)算一遍,以分辨出包含有停車標(biāo)識(shí)的圖像。
Koopman 說(shuō):“這種歸納式學(xué)習(xí)有一定的潛在失效風(fēng)險(xiǎn)。如果你想深入看看這些機(jī)器到底在干什么的話,你只能看到一些統(tǒng)計(jì)數(shù)字。它就是個(gè)黑匣子,你根本不知道它到底在學(xué)些什么?!?/p>
更形象一點(diǎn)地說(shuō),設(shè)想你正在測(cè)試一臺(tái)自動(dòng)駕駛汽車,想看它會(huì)不會(huì)躲開(kāi)行人。而周圍有穿著橙色警示服的行人站著,此時(shí)你不對(duì)車輛采取控制。車輛也許會(huì)像程序里訓(xùn)練的那樣辨認(rèn)出行人的手、胳臂、腳甚至是橙色的襯衫,最后停止車輛。
或者再具體一點(diǎn),假如你在夏天對(duì)自動(dòng)駕駛車輛進(jìn)行測(cè)試學(xué)習(xí),而整個(gè)夏天都沒(méi)有人戴過(guò)帽子,這時(shí)讓車輛電腦看見(jiàn)一頂帽子,豈不是會(huì)讓它驚慌失措?
“我們能用來(lái)訓(xùn)練算法的事件是有限的?!?/strong>Koopman 如是說(shuō)。
人工神經(jīng)網(wǎng)絡(luò)是一種常見(jiàn)的能模仿人類大腦間神經(jīng)元聯(lián)系的機(jī)器學(xué)習(xí)模型。而谷歌的研究人員曾嘗試使用它來(lái)辨別啞鈴。如果系統(tǒng)通過(guò)一系列圖片了解了“啞鈴”是什么,但如果接受訓(xùn)練的圖片并沒(méi)有啞鈴單獨(dú)存在的形象(都是健美先生舉著它的樣子),那么它就無(wú)從提取啞鈴的基本要素,進(jìn)而會(huì)產(chǎn)生錯(cuò)誤的判斷。
這里的另一個(gè)問(wèn)題便是安全驗(yàn)證。Koopman 指出,如果使用近似數(shù)據(jù)對(duì)算法訓(xùn)練測(cè)試太多的話,它可能會(huì)記住某一次特定的測(cè)試,并返回那次測(cè)試的信息。
Koopman 稱,如果Uber任意挑選一個(gè)城市投放其自動(dòng)駕駛汽車,而當(dāng)?shù)貨](méi)有詳盡的高精度電子地圖的話,那么這些自動(dòng)駕駛汽車也就無(wú)法完全發(fā)揮功效。雖然有一個(gè)簡(jiǎn)單的解決辦法——只在匹茲堡市中心(Uber已繪制過(guò)這里的地圖)訓(xùn)練并投放自動(dòng)駕駛汽車。但這樣就大大限制了自動(dòng)駕駛汽車的使用范圍。
除此之外的又一大挑戰(zhàn)是,當(dāng)系統(tǒng)遇到諸如雨霧、揚(yáng)塵等視線不佳天氣狀況時(shí),算法的辨識(shí)能力是否會(huì)受到影響。
在 2013 年的一次研究中發(fā)現(xiàn),改變圖像中的某一像素塊,肉眼是看不出任何變化的,但卻能影響算法判斷能力,令算法以為面前的校車只是一輛普通車輛。
法國(guó)國(guó)家科學(xué)研究中心的軟件可靠性工程師 Matthieu Roy,從事于汽車和航空電子設(shè)備行業(yè),告訴我們說(shuō):“我們永遠(yuǎn)也不會(huì)把機(jī)器學(xué)習(xí)算法放在飛機(jī)上用,因?yàn)槲覀儫o(wú)法判斷系統(tǒng)的決策是對(duì)還是錯(cuò)。而如果飛機(jī)不能通過(guò)自身的安全測(cè)試,它也不能起飛或降落。”Roy 指出,我們不可能將自動(dòng)駕駛汽車可能遇到的場(chǎng)景都測(cè)試一遍,但是我們要應(yīng)對(duì)這些可能發(fā)生的潛在風(fēng)險(xiǎn)。
Alessia Knauss 是瑞典查爾姆斯理工大學(xué)的軟件工程博士后,她正在研究一個(gè)開(kāi)發(fā)自動(dòng)駕駛汽車的最佳測(cè)試模型。她說(shuō):“這樣做的代價(jià)太大了!”
她目前正在約談一些車企高管,以洞悉他們對(duì)這方面的態(tài)度。她說(shuō),即便是配備了多個(gè)傳感器(如谷歌的自動(dòng)駕駛汽車),也只是作為后備應(yīng)急使用。但每一個(gè)部件都要根據(jù)實(shí)際情況進(jìn)行測(cè)試,這樣系統(tǒng)才能更好的利用它們。Knauss 說(shuō):“我們將盡力而為,開(kāi)發(fā)出一個(gè)最佳的測(cè)試模型?!?/p>
Koopman 想讓汽車廠商在第三方機(jī)構(gòu)那里證明他們的自動(dòng)駕駛系統(tǒng)到底有多安全?!拔也⒉幌嘈潘麄兯f(shuō)的話,” Koopman 說(shuō)。
他還想讓廠商們對(duì)車輛的算法特點(diǎn)、不同場(chǎng)景測(cè)試訓(xùn)練的數(shù)據(jù)、以及他們?cè)谀M測(cè)試中的產(chǎn)物如何現(xiàn)實(shí)生活中保證車輛乘客的安全進(jìn)行專門講解。如果在工程團(tuán)隊(duì) 100 億英里的模擬測(cè)試中都沒(méi)能發(fā)生任何突發(fā)事件,車輛也就理所當(dāng)然地不會(huì)有相應(yīng)的處理方式,而汽車廠商卻可以冠冕堂皇的稱其他情況不太可能發(fā)生。
“每個(gè)產(chǎn)業(yè)公司在開(kāi)發(fā)關(guān)鍵軟件時(shí)都會(huì)設(shè)立一個(gè)獨(dú)立的制衡程序,”Koopman 指出。就在上月,美國(guó)國(guó)家公路交通安全管理局( NHTAS )頒布了自動(dòng)駕駛汽車法規(guī),但 NHTAS 并沒(méi)對(duì)獨(dú)立的安全測(cè)試做出硬性規(guī)定。
Koopman 認(rèn)為,某些公司因?yàn)檠邪l(fā)時(shí)限與研發(fā)成本的限制,對(duì)車輛的安全性指標(biāo)就會(huì)放寬要求。比如1986年 NASA 的挑戰(zhàn)者事故,正是因?yàn)楹鲆暳艘恍╋L(fēng)險(xiǎn)因素才導(dǎo)致了航天飛機(jī)在升空 73 秒后發(fā)生了爆炸,造成了 7 名宇航員身亡。
我們并不需要告訴公眾算法是如何進(jìn)行安全檢查的,航空工業(yè)里有在航空公司就職的工程專家,要他們簽署保密協(xié)定也是行規(guī)。“我并不是在教他們?cè)撛趺醋?,我只是在告訴他們,民眾有權(quán)利知道點(diǎn)什么。”
via IEEE
推薦閱讀:
萬(wàn)萬(wàn)沒(méi)想到,汽車數(shù)據(jù)比汽車本身還值錢
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。