0
本文作者: AI研習(xí)社 | 2020-03-12 11:54 |
基于進(jìn)化算法和權(quán)值共享的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索
檢測(cè)視頻中關(guān)注的視覺(jué)目標(biāo)
包含狀態(tài)信息的弱監(jiān)督學(xué)習(xí)方法進(jìn)行人物識(shí)別
基于解剖學(xué)感知的視頻3D人體姿態(tài)估計(jì)
RandLA-Net:一種新型的大規(guī)模點(diǎn)云語(yǔ)義分割框架
論文名稱:CARS: Continuous Evolution for Efficient Neural Architecture Search
作者:Zhaohui
發(fā)表時(shí)間:2020/3/4
論文鏈接:https://paper.yanxishe.com/review/13531?from=leiphonecolumn_paperreview0312
推薦原因
本文為2020CVPR的文章,是國(guó)內(nèi)華為公司的一篇paper。本文的主要工作是為了優(yōu)化進(jìn)化算法在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搜索時(shí)候選網(wǎng)絡(luò)訓(xùn)練過(guò)長(zhǎng)的問(wèn)題,作者參考了ENAS和NSGA-III。在此基礎(chǔ)上,作者提出了一種新的方法——連續(xù)進(jìn)化結(jié)構(gòu)搜索(continuous evolution architecture search),簡(jiǎn)記為CARS。該方法盡可能的利用學(xué)習(xí)到的一切知識(shí),包括上一輪訓(xùn)練的結(jié)構(gòu)和參數(shù)。
創(chuàng)新點(diǎn):
1、開(kāi)發(fā)了一種有效的連續(xù)進(jìn)化方法用于搜索神經(jīng)網(wǎng)絡(luò)。可以在訓(xùn)練數(shù)據(jù)集上調(diào)整最新一代共享一個(gè)SuperNet中參數(shù)的總體架構(gòu)。
2、使用None-dominated排序策略來(lái)選擇不同大小的優(yōu)秀網(wǎng)絡(luò),整體耗時(shí)僅需要0.5 GPU day。
論文名稱:Detecting Attended Visual Targets in Video
作者:Chong Eunji /Wang Yongxin /Ruiz Nataniel /Rehg James M.
發(fā)表時(shí)間:2020/3/5
論文鏈接:https://paper.yanxishe.com/review/13533?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文被CVPR 2020接收,要解決的是檢測(cè)視頻中關(guān)注目標(biāo)的問(wèn)題。具體來(lái)說(shuō),目標(biāo)是確定每個(gè)視頻幀中每個(gè)人的視線,并正確處理幀外(的情況。所提的新架構(gòu)有效模擬了場(chǎng)景與頭部特征之間的動(dòng)態(tài)交互,以推斷隨時(shí)間變化的關(guān)注目標(biāo)。同時(shí)這篇論文引入了一個(gè)新數(shù)據(jù)集VideoAttentionTarget,包含現(xiàn)實(shí)世界中復(fù)雜和動(dòng)態(tài)的注視行為模式。在該數(shù)據(jù)集上進(jìn)行的實(shí)驗(yàn)表明,所提模型可以有效推斷視頻中的注意力。為進(jìn)一步證明該方法的實(shí)用性,這篇論文將預(yù)測(cè)的注意力圖應(yīng)用于兩個(gè)社交注視行為識(shí)別任務(wù),并表明所得分類器明顯優(yōu)于現(xiàn)有方法。
論文名稱:Weakly supervised discriminative feature learning with state information for person identification
作者:Yu Hong-Xing /Zheng Wei-Shi
發(fā)表時(shí)間:2020/2/27
論文鏈接:https://paper.yanxishe.com/review/13409?from=leiphonecolumn_paperreview0312
推薦原因
這篇論文提出使用狀態(tài)信息的弱監(jiān)督學(xué)習(xí)實(shí)現(xiàn)行人識(shí)別的方法。
在獲取人工標(biāo)注的訓(xùn)練數(shù)據(jù)代價(jià)太高的現(xiàn)實(shí)下,使用非監(jiān)督學(xué)習(xí)來(lái)識(shí)別每個(gè)行人不同的視覺(jué)特征具有很重要的意義。但由于如攝像頭拍攝位置角度不同等狀態(tài)差異,同一個(gè)體的照片都會(huì)存在視覺(jué)差別,給無(wú)監(jiān)督分類學(xué)習(xí)帶來(lái)了巨大困難。而本文就提出了能夠利用這些不需要人工標(biāo)注的狀態(tài)信息(如攝像頭位置或臉部拍攝角度標(biāo)注)的弱監(jiān)督學(xué)習(xí)方法,該方法使用狀態(tài)信息優(yōu)化了假定類別的決策邊界,以及使用狀態(tài)信息調(diào)節(jié)控制了識(shí)別特征的偏移。論文在Duke-reID, MultiPIE 和CFP數(shù)據(jù)集上進(jìn)行測(cè)試,結(jié)果遠(yuǎn)優(yōu)于其它現(xiàn)有方法,同時(shí)論文的模型和標(biāo)準(zhǔn)的有監(jiān)督學(xué)習(xí)模型也進(jìn)行了比較相較,并顯示出相當(dāng)?shù)男阅?。文章代碼可見(jiàn)https: //github.com/KovenYu/state-information.
論文名稱:Anatomy-aware 3D Human Pose Estimationin Video
作者:Tianlang Chen
發(fā)表時(shí)間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13408?from=leiphonecolumn_paperreview0312
推薦原因
研究意義:
本文提出了一種新的視頻中3D人體姿態(tài)估計(jì)的解決方案。與傳統(tǒng)的研究進(jìn)行對(duì)比,本文不是直接根據(jù)3D關(guān)節(jié)位置進(jìn)行研究,而是從人體骨骼解剖的角度出發(fā),將任務(wù)分解為骨骼方向預(yù)測(cè)和骨骼長(zhǎng)度預(yù)測(cè),從這兩個(gè)預(yù)測(cè)中完全可以得到三維關(guān)節(jié)位置。
創(chuàng)新點(diǎn):
1、本文提出了一種具有長(zhǎng)跳躍連接的全卷積傳播結(jié)構(gòu),用于骨骼方向的預(yù)測(cè)。該網(wǎng)絡(luò)結(jié)構(gòu)可以實(shí)現(xiàn)在分層預(yù)測(cè)不同骨骼的方向時(shí),而不使用任何耗時(shí)的存儲(chǔ)單元(例如LSTM)。
2、采用一種隱含的注意機(jī)制將2D關(guān)鍵點(diǎn)可見(jiàn)性分?jǐn)?shù)作為額外的指導(dǎo)反饋到模型中,這顯著地緩解了許多具有挑戰(zhàn)性的姿勢(shì)中的深度歧義。
論文名稱:RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds
作者:Qingyong Hu
發(fā)表時(shí)間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13407?from=leiphonecolumn_paperreview0312
推薦原因
本文的核心:
作者主要介紹了RandLA-Net網(wǎng)絡(luò)框架來(lái)推斷大規(guī)模點(diǎn)云上的per-point semantics。之所以采用隨機(jī)點(diǎn)采樣而不是更復(fù)雜點(diǎn)的選擇方法,是因?yàn)榭梢源蟠鬁p少內(nèi)存占用的框架計(jì)算成本。此外,作者還引入了一種新穎的局部特征聚合模塊,通過(guò)使用輕量級(jí)的網(wǎng)絡(luò)體系結(jié)構(gòu),最終證明了RandLA-Net網(wǎng)絡(luò)框架可以有效地用來(lái)解決大規(guī)模點(diǎn)云問(wèn)題。
創(chuàng)新點(diǎn):
作者提出了一種基于簡(jiǎn)單高效的隨機(jī)將采樣和局部特征聚合的網(wǎng)絡(luò)結(jié)構(gòu)(RandLA-Net)。該方法在數(shù)據(jù)集Semantic3D和SemanticKITTI等大場(chǎng)景點(diǎn)云分割數(shù)據(jù)集上都取得了非常好的效果,從而驗(yàn)證了該方法的優(yōu)良性,此外通過(guò)實(shí)驗(yàn)發(fā)現(xiàn),采用本文提出的網(wǎng)絡(luò)框架,計(jì)算效率也是非常高的,明顯優(yōu)于其它模型。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 跨模態(tài)行人重識(shí)別;對(duì)抗時(shí)尚遷移;學(xué)會(huì)注意錯(cuò)誤;凸混合整數(shù)規(guī)劃等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。