0
本文作者: 黃善清 | 2019-11-14 16:04 | 專題:ICCV 2019 |
10 月 27 日-11 月 2 日,在 ICCV 2019 Workshop 舉辦的 Vision Meets Drone: A Challenge(簡稱:VisDrone 2019)挑戰(zhàn)賽上,云從科技研究院與中科院信息工程研究所葛仕明研究員團隊(以下簡稱「聯(lián)合研究團隊」)獲得了 Task3「單目標跟蹤挑戰(zhàn)(Single Object Tracking, SOT)」冠軍。
VisDrone2019 挑戰(zhàn)賽
ICCV 2019 國際計算機視覺大會由 IEEE 主辦,與計算機視覺模式識別會議(CVPR)和歐洲計算機視覺會議(ECCV)并稱計算機視覺方向的三大頂級會議,屬于 CCF A 類會議。
此次 VisDrone 2019(無人機目標檢測)挑戰(zhàn)賽,要從無人機獲取的視覺數(shù)據(jù)中進行物體檢測和跟蹤,吸引了來自海內(nèi)外知名高校、科研機構(gòu)和企業(yè),包括中科院、清華大學、馬里蘭大學、伊利諾伊大學厄巴納-香檳分校、云從科技、三星研究院等近百支隊伍參賽。
本屆挑戰(zhàn)賽包含了四個任務(wù),聯(lián)合研究團隊參加了「任務(wù) 3:單目標跟蹤挑戰(zhàn)」。
VisDrone 2019 數(shù)據(jù)集由天津大學機器學習與數(shù)據(jù)挖掘?qū)嶒炇业?AISKYEYE 團隊收集,全部基準數(shù)據(jù)集由無人機捕獲,包括 288 個視頻片段,總共包括 261908 幀和 10209 個靜態(tài)圖像。
這些幀由 260 多萬個常用目標(如行人、汽車、自行車和三輪車)的手動標注框組成。為了讓參賽隊伍能夠更有效地利用數(shù)據(jù),數(shù)據(jù)集還提供了場景可見性、對象類別和遮擋等重要屬性。
因此,本屆賽題難點諸多。聯(lián)合研究團隊在「任務(wù) 3:單目標跟蹤挑戰(zhàn)」中,不僅要處理訓練集、驗證集、測試集等大量數(shù)據(jù),還要克服數(shù)據(jù)中的低分辨率、長期遮擋、相機運動模糊等困難。
任務(wù) 3:單目標跟蹤挑戰(zhàn)
處理方案
經(jīng)過反復(fù)訓練與測試,聯(lián)合研究團隊最終提出了改進的精確目標狀態(tài)估計算法:ED-ATOM。方法里面包含兩個模塊:目標估計和物體分類。
其中,目標估計模塊使用 IOU 預(yù)測網(wǎng)絡(luò)、ResNet-18 網(wǎng)絡(luò)和 ImageNet 等數(shù)據(jù)集來做預(yù)訓練,同時使用低光照圖像增強算法處理原始數(shù)據(jù),離線精調(diào)模型后再在線基于跟蹤狀態(tài)的搜索策略改進魯棒性。
物體分類模塊則使用數(shù)據(jù)增強的方法,進行在線數(shù)據(jù)擴充,以便于分類模型的可推廣性。同時基于跟蹤狀態(tài)的有效搜索策略,改進穩(wěn)健性。
最終,結(jié)合 IE(圖像增強)、ED(通過增強數(shù)據(jù)訓練的 IOU 預(yù)測網(wǎng)絡(luò))、DA(在線數(shù)據(jù)增強)、LT(長期跟蹤)幾種方法的 ED-ATOM 算法,取得了最優(yōu)成績。
ED-ATOM 算法運用微光圖像增強方法實行暗部追蹤訓練,通過不同方法的測試,確定效果最佳方案;
運用數(shù)據(jù)擴充方案,在目標外觀發(fā)生變化的情況下,通過翻轉(zhuǎn)、平移、縮放、仿射、旋轉(zhuǎn)、模糊等增強方法,提高跟蹤自適應(yīng)性;
在面對嚴重的不在視野和完全遮擋的跟蹤情況下,使用長期跟蹤方案,可以自適應(yīng)搜索區(qū)域,提高跟蹤穩(wěn)健性。
通過 ED-ATOM 算法,將可以實現(xiàn)在低分辨率、長期遮擋、攝像機運動/運動模糊等情況下的有效可視化,從而達到鎖定目標、預(yù)判行動等效果。
跟蹤分數(shù)
據(jù)了解,作為人工智能領(lǐng)域的智能服務(wù)企業(yè),云從科技在廣州、重慶、上海、蘇州、成都等地都成立了研發(fā)中心,研發(fā)人員超過 1000 名,提供了核心技術(shù)產(chǎn)品研發(fā)能力。同時與各大學、研究院等成立聯(lián)合實驗室,掌握最前沿的核心技術(shù)研發(fā)能力。
雷鋒網(wǎng) AI 開發(fā)者雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。