丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
智能駕駛 正文
發(fā)私信給SebastianYuan
發(fā)送

1

要證明自動(dòng)駕駛很安全,怎么就這么難?

本文作者: SebastianYuan 2016-10-11 10:40
導(dǎo)語(yǔ):機(jī)動(dòng)車制造商很難證明自動(dòng)駕駛究竟有多安全,因?yàn)槭顾鼈冎悄芑暮诵氖菣C(jī)器學(xué)習(xí),會(huì)受到訓(xùn)練數(shù)據(jù)和實(shí)際路況等諸多因素的影響。

編者按:如何向消費(fèi)者證明自家的汽車很安全,一直是一個(gè)困擾自動(dòng)駕駛廠商的問(wèn)題。作者認(rèn)為,由于路況的多變和復(fù)雜性,利用機(jī)器學(xué)習(xí)所實(shí)現(xiàn)的自動(dòng)駕駛在面對(duì)潛在風(fēng)險(xiǎn)時(shí)也會(huì)顯得力不從心。本文出自 IEEE,作者 Andrew Sliver, 雷鋒網(wǎng)編譯,未經(jīng)許可不得轉(zhuǎn)載。

要證明自動(dòng)駕駛很安全,怎么就這么難?

年秋天,媒體正在加州帕洛阿托試駕帶有自動(dòng)駕駛系統(tǒng)的特斯拉 Model S

David Paul Morris/Bloomberg/Getty Images

汽車廠商很難證明自動(dòng)駕駛汽車究竟有多安全,因?yàn)槭顾鼈冎悄芑暮诵氖菣C(jī)器學(xué)習(xí)。

卡內(nèi)基梅隆大學(xué)的計(jì)算機(jī)科學(xué)家、從事汽車制造業(yè)的 Phillip Koopman 說(shuō)道:“你不能總是覺(jué)得自動(dòng)駕駛這玩意兒一定可靠?!?/p>

早在 2014 年,一家市場(chǎng)研究公司稱自動(dòng)駕駛汽車市場(chǎng)將于 2030 年達(dá)到 870 億美元的規(guī)模。而包括谷歌、特斯拉和 Uber 在內(nèi)的許多公司均開(kāi)展了自家的計(jì)算機(jī)輔助駕駛或全自動(dòng)駕駛項(xiàng)目。這些公司或多或少都取得了一些進(jìn)展,但仍有大量的技術(shù)難題等待攻克。

有部分研究人員認(rèn)為因?yàn)闄C(jī)器學(xué)習(xí)的本質(zhì),要證明自動(dòng)駕駛汽車可以安全上路是一項(xiàng)非常困難的挑戰(zhàn),而Koopman 對(duì)此也深信不疑。

一般而言,工程師先按要求編寫代碼,然后運(yùn)行測(cè)試檢查代碼是否滿足要求。但使用機(jī)器學(xué)習(xí),要讓計(jì)算機(jī)掌控這一復(fù)雜的系統(tǒng)就不是這么簡(jiǎn)單的事兒了。

比如,處理同一天不同時(shí)間拍下的圖像或在特定環(huán)境下分辨像人行橫道、停車標(biāo)識(shí)等重要的標(biāo)識(shí)并不是寫個(gè)代碼就能解決的問(wèn)題。Koopman 說(shuō):“機(jī)器學(xué)習(xí)的難點(diǎn)就在于,你根本無(wú)法界定代碼要滿足的要求是什么?!?/strong>

多年前,工程師們就意識(shí)到傳統(tǒng)軟件是無(wú)法對(duì)相機(jī)圖像進(jìn)行分析處理的,所以他們轉(zhuǎn)而使用了機(jī)器學(xué)習(xí)算法。算法通過(guò)對(duì)樣本的處理生成一個(gè)可以解決特定問(wèn)題的數(shù)學(xué)模型。

工程師會(huì)提供許多帶有注釋的樣本——告訴計(jì)算機(jī)什么是停車標(biāo)識(shí),什么不是。這些算法會(huì)把圖像分像素塊解析,提取當(dāng)中特征像素塊來(lái)建立運(yùn)算模型。當(dāng)計(jì)算機(jī)收到新圖像時(shí),它會(huì)將這些圖像在這個(gè)模型中運(yùn)算一遍,以分辨出包含有停車標(biāo)識(shí)的圖像。

Koopman 說(shuō):“這種歸納式學(xué)習(xí)有一定的潛在失效風(fēng)險(xiǎn)。如果你想深入看看這些機(jī)器到底在干什么的話,你只能看到一些統(tǒng)計(jì)數(shù)字。它就是個(gè)黑匣子,你根本不知道它到底在學(xué)些什么?!?/p>

更形象一點(diǎn)地說(shuō),設(shè)想你正在測(cè)試一臺(tái)自動(dòng)駕駛汽車,想看它會(huì)不會(huì)躲開(kāi)行人。而周圍有穿著橙色警示服的行人站著,此時(shí)你不對(duì)車輛采取控制。車輛也許會(huì)像程序里訓(xùn)練的那樣辨認(rèn)出行人的手、胳臂、腳甚至是橙色的襯衫,最后停止車輛。

或者再具體一點(diǎn),假如你在夏天對(duì)自動(dòng)駕駛車輛進(jìn)行測(cè)試學(xué)習(xí),而整個(gè)夏天都沒(méi)有人戴過(guò)帽子,這時(shí)讓車輛電腦看見(jiàn)一頂帽子,豈不是會(huì)讓它驚慌失措?

“我們能用來(lái)訓(xùn)練算法的事件是有限的?!?/strong>Koopman 如是說(shuō)。

人工神經(jīng)網(wǎng)絡(luò)是一種常見(jiàn)的能模仿人類大腦間神經(jīng)元聯(lián)系的機(jī)器學(xué)習(xí)模型。而谷歌的研究人員曾嘗試使用它來(lái)辨別啞鈴。如果系統(tǒng)通過(guò)一系列圖片了解了“啞鈴”是什么,但如果接受訓(xùn)練的圖片并沒(méi)有啞鈴單獨(dú)存在的形象(都是健美先生舉著它的樣子),那么它就無(wú)從提取啞鈴的基本要素,進(jìn)而會(huì)產(chǎn)生錯(cuò)誤的判斷。

這里的另一個(gè)問(wèn)題便是安全驗(yàn)證。Koopman 指出,如果使用近似數(shù)據(jù)對(duì)算法訓(xùn)練測(cè)試太多的話,它可能會(huì)記住某一次特定的測(cè)試,并返回那次測(cè)試的信息。

Koopman 稱,如果Uber任意挑選一個(gè)城市投放其自動(dòng)駕駛汽車,而當(dāng)?shù)貨](méi)有詳盡的高精度電子地圖的話,那么這些自動(dòng)駕駛汽車也就無(wú)法完全發(fā)揮功效。雖然有一個(gè)簡(jiǎn)單的解決辦法——只在匹茲堡市中心(Uber已繪制過(guò)這里的地圖)訓(xùn)練并投放自動(dòng)駕駛汽車。但這樣就大大限制了自動(dòng)駕駛汽車的使用范圍。

除此之外的又一大挑戰(zhàn)是,當(dāng)系統(tǒng)遇到諸如雨霧、揚(yáng)塵等視線不佳天氣狀況時(shí),算法的辨識(shí)能力是否會(huì)受到影響。

在 2013 年的一次研究中發(fā)現(xiàn),改變圖像中的某一像素塊,肉眼是看不出任何變化的,但卻能影響算法判斷能力,令算法以為面前的校車只是一輛普通車輛。

法國(guó)國(guó)家科學(xué)研究中心的軟件可靠性工程師 Matthieu Roy,從事于汽車和航空電子設(shè)備行業(yè),告訴我們說(shuō):“我們永遠(yuǎn)也不會(huì)把機(jī)器學(xué)習(xí)算法放在飛機(jī)上用,因?yàn)槲覀儫o(wú)法判斷系統(tǒng)的決策是對(duì)還是錯(cuò)。而如果飛機(jī)不能通過(guò)自身的安全測(cè)試,它也不能起飛或降落。”Roy 指出,我們不可能將自動(dòng)駕駛汽車可能遇到的場(chǎng)景都測(cè)試一遍,但是我們要應(yīng)對(duì)這些可能發(fā)生的潛在風(fēng)險(xiǎn)。

Alessia Knauss 是瑞典查爾姆斯理工大學(xué)的軟件工程博士后,她正在研究一個(gè)開(kāi)發(fā)自動(dòng)駕駛汽車的最佳測(cè)試模型。她說(shuō):“這樣做的代價(jià)太大了!”

她目前正在約談一些車企高管,以洞悉他們對(duì)這方面的態(tài)度。她說(shuō),即便是配備了多個(gè)傳感器(如谷歌的自動(dòng)駕駛汽車),也只是作為后備應(yīng)急使用。但每一個(gè)部件都要根據(jù)實(shí)際情況進(jìn)行測(cè)試,這樣系統(tǒng)才能更好的利用它們。Knauss 說(shuō):“我們將盡力而為,開(kāi)發(fā)出一個(gè)最佳的測(cè)試模型?!?/p>

Koopman 想讓汽車廠商在第三方機(jī)構(gòu)那里證明他們的自動(dòng)駕駛系統(tǒng)到底有多安全?!拔也⒉幌嘈潘麄兯f(shuō)的話,” Koopman 說(shuō)。

他還想讓廠商們對(duì)車輛的算法特點(diǎn)、不同場(chǎng)景測(cè)試訓(xùn)練的數(shù)據(jù)、以及他們?cè)谀M測(cè)試中的產(chǎn)物如何現(xiàn)實(shí)生活中保證車輛乘客的安全進(jìn)行專門講解。如果在工程團(tuán)隊(duì) 100 億英里的模擬測(cè)試中都沒(méi)能發(fā)生任何突發(fā)事件,車輛也就理所當(dāng)然地不會(huì)有相應(yīng)的處理方式,而汽車廠商卻可以冠冕堂皇的稱其他情況不太可能發(fā)生。

“每個(gè)產(chǎn)業(yè)公司在開(kāi)發(fā)關(guān)鍵軟件時(shí)都會(huì)設(shè)立一個(gè)獨(dú)立的制衡程序,”Koopman 指出。就在上月,美國(guó)國(guó)家公路交通安全管理局( NHTAS )頒布了自動(dòng)駕駛汽車法規(guī),但 NHTAS 并沒(méi)對(duì)獨(dú)立的安全測(cè)試做出硬性規(guī)定。

Koopman 認(rèn)為,某些公司因?yàn)檠邪l(fā)時(shí)限與研發(fā)成本的限制,對(duì)車輛的安全性指標(biāo)就會(huì)放寬要求。比如1986年 NASA 的挑戰(zhàn)者事故,正是因?yàn)楹鲆暳艘恍╋L(fēng)險(xiǎn)因素才導(dǎo)致了航天飛機(jī)在升空 73 秒后發(fā)生了爆炸,造成了 7 名宇航員身亡。

我們并不需要告訴公眾算法是如何進(jìn)行安全檢查的,航空工業(yè)里有在航空公司就職的工程專家,要他們簽署保密協(xié)定也是行規(guī)。“我并不是在教他們?cè)撛趺醋?,我只是在告訴他們,民眾有權(quán)利知道點(diǎn)什么。”

via IEEE

推薦閱讀:

萬(wàn)萬(wàn)沒(méi)想到,汽車數(shù)據(jù)比汽車本身還值錢

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

分享:
相關(guān)文章

實(shí)習(xí)生

當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄