丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給楊鯉萍
發(fā)送

0

IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

本文作者: 楊鯉萍 2019-12-03 10:46
導語:賽事內(nèi)容及冠軍算法報告

雷鋒網(wǎng) AI 開發(fā)者按:近日,Lifelong Robotic Vision 挑戰(zhàn)賽在澳門 IROS 2019 大會上成功舉辦。本次競賽吸引到共 150 個參賽隊,實際提交 40 個有效成績。

多位機器人領(lǐng)域大咖來到現(xiàn)場進行特邀報告和圓桌討論,包括:意大利技術(shù)研究院科學主任 Giorgio Metta 教授、漢堡大學張建偉教授、浙江大學章國鋒教授等知名學者,演講主題從 Lifelong Learning 算法到 SLAM 均有涉獵;同時,決賽入圍團隊——??低暋⑿录悠履涎罄砉ご髮W、香港中文大學等也在現(xiàn)場向大家分享了賽事算法報告,雷鋒網(wǎng) AI 開發(fā)者將賽事內(nèi)容及冠軍方案整理如下。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

大賽背景

IEEE 智能機器人與系統(tǒng)國際會議(IROS)是智能機器人與自動化領(lǐng)域的兩個頂級國際會議之一,而 IROS 2019 則是 IROS 成功舉辦的第 32 屆會議,由全球最大的非營利性專業(yè)技術(shù)學會 IEEE、IEEE 機器人與自動化學會、IEEE 工業(yè)電子學會、日本機器人學會、儀器與控制工程師學會以及新技術(shù)基金會聯(lián)合贊助。

大會期間,約 4000 名來自世界各地的機器人、自動化系統(tǒng)及人工智能等領(lǐng)域的領(lǐng)軍人物、頂尖研究團隊代表及企業(yè)界人士齊聚澳門,共同探索智能機器人與系統(tǒng)領(lǐng)域的前沿科技,并分享并討論相關(guān)領(lǐng)域的最新進展。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

IROS 2019 包括了主題演講、技術(shù)報告、研討會、競賽、論壇和展覽等多個部分。其中,終生機器視覺數(shù)據(jù)集全球挑戰(zhàn)賽則屬于 IROS 2019 競賽環(huán)節(jié),其中 Lifelong/Continual Learning for Object Recognition 是其中一個 Channel 的比賽。

解讀 Lifelong/Continual Learning

本次挑戰(zhàn)賽將目光聚焦于機器視覺前沿領(lǐng)域,旨在通過比賽探索,賦予 AI 終生學習能力。其中,終生學習能力于人類而言,則是持續(xù)從環(huán)境和經(jīng)驗中學習知識和技能;于機器人而言,則是以適應變化的環(huán)境和任務(wù)終生學習能力 ;而于計算機視覺,則需要從預先建好的數(shù)據(jù)集中一次性學習。三者關(guān)系如下圖所示:

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

一、機器人視覺面臨的挑戰(zhàn)

近年來,計算機視覺領(lǐng)域發(fā)展迅速,與此同時大規(guī)模數(shù)據(jù)集如 ImageNet、COCO 等的進展使得基于深度學習的計算機視覺技術(shù)在精準度和實用性能方面得到顯著提高。

目前基于大量數(shù)據(jù)集的物體檢測,分割和識別的計算機視覺應用也在人臉識別、智能家居、輔助工業(yè)制造等領(lǐng)域做出了突出貢獻。然而機器人視覺對于視覺算法的開發(fā)和落地提出了新的挑戰(zhàn)。

通常情況下,基于深度學習的計算機視覺算法需要數(shù)據(jù)符合獨立同分布 (i.i.d) 的假設(shè),也意味著需要訓練數(shù)據(jù)的任務(wù)單一化、樣本分布同質(zhì)化、難度統(tǒng)一化。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

但是在機器人真實應用場景中,隨著時間推移,通常呈現(xiàn)出任務(wù)多樣性、樣本分布差異大、難度多變性等特征。因此在機器人視覺應用場景中,智能體需要采取連續(xù)/終生學習 (continual/lifelong leanring) 的策略去使用環(huán)境等因素的改變。

二、終身學習突破關(guān)鍵

目前,終生學習主要面臨兩大挑戰(zhàn):

  • 第一是災難性遺忘 (catastropic forgetting),由此誕生了著名的穩(wěn)定性-可塑性定理 (stability-plasticity dilemma)。該定理指出,一個完備穩(wěn)定的模型可以保證系統(tǒng)學習到的舊知識不被忘記,但無法學習新知識;而一個完全可塑的模型可以充分適應新的知識領(lǐng)域,但是會忘卻舊的知識。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

基于深度學習的 Lifelong/Continual Learning 算法對比

  • 第二是概念漂移 (concept drift),主要是智能體所接觸到數(shù)據(jù)類型不同于傳統(tǒng)的靜態(tài)數(shù)據(jù) (static data),而是一種體量大、實時性強的流數(shù)據(jù) (data stream)。常見的動態(tài)流數(shù)據(jù)則是不獨立同分布的,隨著時間的推移,智能體需要漸進地適應不同分布的流式數(shù)據(jù)。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

不同類型的概念漂移(圖片來源于 Block-based and Online Ensembles for Concept-drifting Data Streams, 2015. Ph.D. Thesis from Dariusz Brzeziński)

  • 第三則是模型能夠自適應地改變其復雜度,由于機器人獲取的數(shù)據(jù)在動態(tài)變化,無法提前獲取所有的外界數(shù)據(jù)信號 (例如機器人每天接觸感知的人、物體和周圍環(huán)境都在變化),所以最終運用的模型必須具備復雜度自適應可變的特點。加之概念漂移的問題,我們常常需要增加模型的復雜度來處理不同分布的數(shù)據(jù)。

數(shù)據(jù)集

一、數(shù)據(jù)集采集

OpenLORIS-Object 數(shù)據(jù)集由若干個地面機器人模擬人類視覺采集而成,采集地點為平時活動的辦公室和家庭環(huán)境,攝影部分由 Intel RealSense D435i 和 T265 組成。

在不同光照、遮擋、物體大小、相機-對象距離/角度、雜亂程度,以及不同的場景信息下,機器人主動記錄目標對象的視頻。數(shù)據(jù)集記錄了機器人在拍攝過程中通常會面臨的不同環(huán)境挑戰(zhàn),比如:

  • 光照 在實際應用中,照明會隨時間變化很大,例如晝夜差異。我們的數(shù)據(jù)集主要是從正常的日光收集的,包括弱光,正常光和強光,每個占每個場景下物體的 10%。隨著燈光變?nèi)酰诸惾蝿?wù)變得更具挑戰(zhàn)性。

  • 遮擋 當一個對象的一部分被一個或多個對象隱藏,或者在視場中僅顯示該對象的一部分時會產(chǎn)生遮擋現(xiàn)象。由于可能隱藏了對象的獨特特征,因此遮擋使分類任務(wù)更具挑戰(zhàn)性。

     IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

  • 物體大小 小物體或者細長的物體,如干電池或膠棒,會使分類任務(wù)更具挑戰(zhàn)性。

  • 相機-對象角度/距離 攝像機的角度會影響從對象檢測到的屬性,距離會影響目標物體的大小。

  • 雜亂程度 是指在考慮的對象附近存在其他對象。同時存在多個對象可能會干擾分類任務(wù)。

  • 場景信息 環(huán)境信息是學習過程中的另一個因素,例如在廚房的場景下可以提高刀、炊具等物體的識別能力。先前的大多數(shù)研究都忽略了場景信息對于上下文識別的重要性。

技術(shù)細節(jié)和數(shù)據(jù)集可參考:

Qi She et al.,「OpenLORIS-Object: A Dataset and Benchmark towards Lifelong Object Recognition」, https://arxiv.org/abs/1911.06487 

二、數(shù)據(jù)集描述

為了使物體分類任務(wù)與日常生活場景相結(jié)合,數(shù)據(jù)在多個生活場景下采集,比如客廳、廚房、臥室等,物體的放置也考慮日常生活場景,被放置在桌面、地面、墻面、床上等。

已發(fā)布的的數(shù)據(jù)集由 69 種物體組成,包含 7 個場景下的 19 類日常必需品。每種物體被記錄為 17 秒(每秒 30 幀)的視頻(即共 500 幀 RGB-D 圖像),由 4 個環(huán)境影響因素(包含光照,遮擋程度,目標對象的像素大小,雜亂程度),每個因素由 3 種等級控制分類任務(wù)的實現(xiàn)難度。見下圖(基于環(huán)境影響因素,每種物體共有 12 個子類):

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

每個等級下的每種物體對應了 260 個樣本。即:對于每種物體,總共有 3120 個樣本。因此數(shù)據(jù)集共包含了:260(樣本數(shù)/種物體實例) * 69(物體實例) * 4(環(huán)境影響因素/個等級) * 3(難度等級)=215,280 個樣本。

數(shù)據(jù)集概況及下載地址:

https://lifelong-robotic-vision.github.io/dataset/Data_Object-Recognition      

三、數(shù)據(jù)集的可視化

執(zhí)行物體分類任務(wù)時呈現(xiàn)時序一致性可提供圖像信息在時間上的平滑度,從而簡化目標識別的過程,改善分類準確性,更好地解決半監(jiān)督(或無監(jiān)督)場景。下圖為隨機選取的數(shù)據(jù)樣本:

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

示例中的每列圖片為目標對象所處的不同雜亂環(huán)境(從第一行到第三行分別展示簡單,正常和復雜的雜亂場景),遮擋程度(0%,25%,50%),像素大小(<30*30,30*30?200*200,>200*200),以及光照程度(弱光,正常光,強光)。

比賽評比標準

比賽中,參賽選手不僅要考慮連續(xù)學習情境下物體識別的準確度,更要兼顧模型的大小、模型對數(shù)據(jù)量的依賴性、模型部署中的預測速度等性能。

除此之外,參賽選手還需對更具有挑戰(zhàn)性的測試集進行采集,包括:更多物體姿態(tài)角度、光照環(huán)境和更加復雜的背景信息。具體的模型評分標準如下所示:

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

在決賽的數(shù)據(jù)集中,測試集有 21520 個樣本,驗證集有 21520 個樣本,訓練集有 172200 個樣本,賽方根據(jù)不同的影響因素隨機打亂數(shù)據(jù)集。

數(shù)據(jù)集被分為 12 個批次,每個批次的樣本來自一個子類,總共有 12 個子類,即:4(環(huán)境影響因素/等級) * 3(難度等級),包含 7 個生活場景下的 69 種物體。下圖為每個批次下不同影響因素的概覽:

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

Lifelong Object Recognition 優(yōu)勝方案模型展示

來自海康威視的 HIKVISION 團隊榮獲 Lifelong Robotic Vision Competition 冠軍,該方案采取知識蒸餾 (knowledge distillation) 和網(wǎng)絡(luò)擴展 (network expand) 的方式來緩解災難性遺忘。

該方法會計算對于每一次增量任務(wù)與先前學習任務(wù)的領(lǐng)域差異 (domain gap) 來判斷任務(wù)相似性,對于相似性大的任務(wù)采用知識蒸餾方案在學習新任務(wù)的同時記住舊任務(wù)的特征,相似小的任務(wù)采用網(wǎng)絡(luò)結(jié)構(gòu)擴充來學習新任務(wù)。其方案模型如下圖所示:

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

基于知識蒸餾與網(wǎng)絡(luò)擴展方案

來自 University of Bologna 的 unibo 團隊提出了隱層結(jié)構(gòu)回放 (latent rehearsal) 模型,該模型獲得綜合評分第二名的成績。

不同于其他方案針對原數(shù)據(jù)樣本進行重采樣,該方法對舊樣本的隱層信息進行重采樣。實驗證明該方案可以在確保高準確率的同時,減少內(nèi)存使用和計算量。目前該方案可以部署在移動端設(shè)備進行訓練。


 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

基于隱層結(jié)構(gòu)回放模型方案

此外,來自韓國電子通信研究院 (ETRI) 的 HYDRA-DI-ETRI 團隊提出了選擇性特征學習 (selective feature learning) 方案去減少噪聲物體對目標物體的干擾。該隊伍在口頭報告中得到最高分。

由于在真實的機器人視覺識別任務(wù)中,目標物體的周圍環(huán)境趨向于雜亂無規(guī)律,存在較多的噪聲物體,這可能會對識別的準確率產(chǎn)生影響。該團隊采用 Single Shot MultiBox Detector (SSD) 去對選擇出第一個任務(wù)的數(shù)據(jù)集中的目標物體,后再進行連續(xù)的物體識別任務(wù)。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

基于選擇性特征學習方案

AI 計算機視覺的持續(xù)學習探討

為了進一步推廣 Lifelong Robotic Vision 項目,吸引更多的學術(shù)工業(yè)界的研究開發(fā)人員,英特爾中國研究院作為主辦方之一 在 IEEE Conference on Computer Vision and Pattern Recognition (CVPR) 2020 舉辦了「Continual Learning in Computer Vision Workshop」。

該 workshop(研討會)主要探究計算機視覺問題中的 Continul Learning 的能力。在計算機視覺系統(tǒng)中,如何在多個連續(xù)任務(wù)中保證算法的穩(wěn)定性,如何有效的克服神經(jīng)網(wǎng)絡(luò)中災難性遺忘的問題,如何進行知識在不同任務(wù)中的遷移,以及如何在硬件受限情況下優(yōu)化 Continual Learning 的綜合表現(xiàn)。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

研討會主要分為研討會文章收錄,現(xiàn)場專家報告,Continual learning in Computer Vision 挑戰(zhàn)賽。目前確認 9 位專家會在現(xiàn)場進行口頭報告討論 Continual Learning 在計算機視覺中的研究前景以及潛力,包括:Google Deepmind 研究科學家 Razvan Pascanu、Facebook AI Research 研究科學家 Marc’Aurelio Ranzato、INRIA 研究總監(jiān) Cordelia Schmid等。

研討會主要關(guān)注 Continual Learning 的話題,目前已開放公眾提交平臺,錄用的文章將加入 CVPR 2020 workshop 的文集,

更多提交詳情可查看:

https://cmt3.research.microsoft.com/CONTVISION2020 

Lifelong Robotic Vision Github 詳情:

https://lifelong-robotic-vision.github.io/ 

雷鋒網(wǎng) AI 開發(fā)者


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

 IROS 2019 機器視覺全球挑戰(zhàn)賽:賦予 AI 終生學習能力(附冠軍算法模型)

分享:
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說