0
投影儀投出的車輛圖像也會被 Autopilot 識別
雷鋒網(wǎng)按,半年前,以色列古里昂大學(xué)博士生 Ben Nassi 在研究時成功完成了對 Mobileye 630 Pro 駕駛員輔助系統(tǒng)的一系列欺騙攻擊。當(dāng)時,他只是用到了簡易的無人機和投影儀而已。
“欺騙”了 Mobileye 的駕駛員輔助系統(tǒng)后,Nassi 又在其他類似的系統(tǒng)上做了實驗,結(jié)果特斯拉 Model X 也沒能逃過這套簡易裝置的欺騙。
事實上,Nassi 用到的技術(shù)原理并不復(fù)雜,他能成功完成欺騙主要利用了人類和 AI 在圖像識別上的差異。大多數(shù)情況下,Nassi 用投影儀投出的影像騙不了人但卻能把 Autopilot 耍的團團轉(zhuǎn)。實際上,某些欺騙攻擊幾乎是隱秘的,它們依賴于感知上的差異,在成功“戲耍”特斯拉的同時,也讓人類駕駛員無從察覺。
Nassi 出于善意的實驗也是為了提醒廠商駕駛員輔助系統(tǒng)的安全漏洞所在,在他看來這應(yīng)該被稱為“ADAS 的幻象”。從實驗結(jié)果來看,我們也確實應(yīng)該在半自動駕駛系統(tǒng)中添加一些防御性設(shè)計了。
投影在樹上的限速標(biāo)識
在“欺騙”Model X 時,Nassi 和他的團隊連無人機都沒用到,一個助手手持投影儀就創(chuàng)造出了“ADAS 的幻象”。投影儀在地上,路邊的樹上和廣告牌上投出了車道線和限速標(biāo)志,結(jié)果那輛 Model X 還真的識別到了這些道路標(biāo)識,乖乖跟著走了。
從安全的角度來看,攻擊者根本不用出現(xiàn)在現(xiàn)場,更是留不下任何證據(jù)。此外,攻擊者也不用自學(xué)成技術(shù)專家,十幾歲的小孩子就能搞定。當(dāng)然,裝備上也無需那么昂貴或花哨,Nassi 和他的團隊只是用了一些 200-300 美元的普通投影儀,其中有一臺分辨率才 854x480,亮度也僅有 100 流明。
Nassi 的實驗也從反面證明,Autopilot 識別起道路標(biāo)識來還是挺“火眼金睛”的,畢竟有時投影只出現(xiàn)八分之一秒,人類駕駛員很難注意到,但卻被 AI 圖像識別系統(tǒng)察覺到了。
不過,我們還是要再次強調(diào),Autopilot 只是一套半自動駕駛系統(tǒng),因此人類駕駛員還是要對行車安全負(fù)責(zé)。如果駕駛員對這種惡作劇似的交通標(biāo)識不管不問,沒準(zhǔn)你的車還真會被它帶進溝里。
可惜,不是所有人都有這樣的安全意識。2019 年的一項調(diào)查就顯示,有接近一般的駕駛員過于相信 Autopilot,其中甚至有 6% 的受訪者認(rèn)為自己完全可以在車上睡大覺。
未來,車輛上的傳感器肯定會越來越多,有人在駕駛席監(jiān)督還好,如果真的全自動駕駛了,誰來保證車輛不被投影儀惡意欺騙呢?
雷鋒網(wǎng)&雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。