0
本文作者: AI研習(xí)社 | 2020-03-09 15:40 |
多軌跡預(yù)測研究
針對VI-ReID的分層跨模態(tài)行人在識(shí)別
3DMM 人臉模型:從過去到現(xiàn)在到未來
一種基于U-Net的生成性對抗網(wǎng)絡(luò)判別器
用于圖像描述的交叉模態(tài)信息的探索和蒸餾
論文名稱:The Garden of Forking Paths: Towards Multi-Future Trajectory Predictio
作者:Junwei Liang
發(fā)表時(shí)間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13151?from=leiphonecolumn_paperreview0309
推薦原因
研究意義:
軌跡預(yù)測問題是目前AI方向研究的一個(gè)熱點(diǎn)問題。基于此,本文利用多種不同軌跡類型研究了如何高效準(zhǔn)確的預(yù)測出路徑的可能分布,從而有助于未來在多目標(biāo)預(yù)測方面的研究和應(yīng)用。
創(chuàng)新點(diǎn):
1、創(chuàng)建了一個(gè)基于我們現(xiàn)實(shí)世界中軌跡數(shù)據(jù)的3D模擬器數(shù)據(jù)集;
2、作者提出了一種新的模型,記為Multiverse,該模型可以準(zhǔn)確地用于多軌跡預(yù)測。
論文名稱:Hi-CMD:HierarchicalCross-ModalityDisentanglementforVisible-Infrared PersonRe-Identi?cation
作者:Seokeon Choi
發(fā)表時(shí)間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13150?from=leiphonecolumn_paperreview0309
推薦原因
研究意義:通過對夜間視頻的監(jiān)控進(jìn)行跨模態(tài)行人識(shí)別是當(dāng)下ReID方向的一個(gè)的難點(diǎn),目前已經(jīng)受到學(xué)術(shù)界的廣泛關(guān)注。在此背景下,作者提出了一種分層跨模態(tài)行人識(shí)別(Hi-CMD)方法。為了實(shí)現(xiàn)該方法,作者引入了ID-preserving圖像的生成網(wǎng)絡(luò)和層次特征學(xué)習(xí)模塊,通過這種網(wǎng)絡(luò)結(jié)構(gòu)可有效的解決行人在不同姿勢和照明條件下進(jìn)行ReID任務(wù)。
文章的創(chuàng)新點(diǎn)
1、提出了種一種新穎的VI-ReID行人跨模態(tài)識(shí)別方法:Hi-CMD,與傳統(tǒng)的模型方法相比,該模型通過區(qū)分ID-discriminative和可見紅外圖像中的ID-excluded兩種因素,有效地減少了跨模態(tài)和模態(tài)內(nèi)的差異。
2、利用ID-PIG網(wǎng)絡(luò),避免可能因訓(xùn)練數(shù)據(jù)不足而帶來的問題。
論文名稱:3D Morphable Face Models -- Past, Present and Future
作者:Bernhard Egger / William A. P. Smith / Ayush Tewari / Stefanie Wuhrer / Michael Zollhoefer / Thabo Beeler / Florian Bernard / Timo Bolkart / Adam Kortylewski / Sami Romdhani / Christian Theobalt / Volker Blanz / Thomas Vetter
發(fā)表時(shí)間:2019/9/3
論文鏈接:https://paper.yanxishe.com/review/12956?from=leiphonecolumn_paperreview0309
推薦原因
文章詳細(xì)介紹了 3DMM 人臉模型自20多年前提出至今以來的發(fā)展,是一篇非常全面非常優(yōu)秀的綜述文章,作者都是由該領(lǐng)域的前沿學(xué)者。
雖然已經(jīng)提出有20多年,但 3DMM 模型的構(gòu)建和應(yīng)用,如捕捉、建模、圖像合成和分析等等,仍然存在眾多挑戰(zhàn),是一個(gè)非?;钴S的研究主題,文章回顧了這些領(lǐng)域中的最新技術(shù),在最后進(jìn)一步進(jìn)行了展望,提出了一些挑戰(zhàn),為未來的研究提供了一些方向,并強(qiáng)調(diào)了當(dāng)前和未來的一些應(yīng)用。
強(qiáng)烈建議相關(guān)專業(yè)學(xué)生和老師仔細(xì)研讀,是一個(gè)不可多得的 3DMM 人臉模型的綜述文章。
論文名稱:A U-Net Based Discriminator for Generative Adversarial Networks
作者:Sch?nfeld Edgar /Schiele Bernt /Khoreva Anna
發(fā)表時(shí)間:2020/2/28
論文鏈接:https://paper.yanxishe.com/review/12959?from=leiphonecolumn_paperreview0309
推薦原因
這篇論文被CVPR 2020接收,提出了一種基于U-Net的判別器架構(gòu),在保持合成圖像的全局一致性的同時(shí),向生成器提供詳細(xì)的每像素反饋。在判別器的每像素響應(yīng)支持下,這篇論文進(jìn)一步提出一種基于CutMix數(shù)據(jù)增強(qiáng)的逐像素一致性正則化技術(shù),鼓勵(lì)U-Net判別器更多關(guān)注真實(shí)圖像與偽圖像之間的語義和結(jié)構(gòu)變化,不僅改善了U-Net判別器的訓(xùn)練,還提高了生成樣本的質(zhì)量。新判別器在標(biāo)準(zhǔn)分布和圖像質(zhì)量指標(biāo)方面改進(jìn)了現(xiàn)有技術(shù),使生成器能夠合成具有變化結(jié)構(gòu)、外觀和詳細(xì)程度的圖像,并保持全局和局部真實(shí)感。與BigGAN基線模型相比,所提方法在FFHQ、CelebA和COCO-Animals數(shù)據(jù)集上平均提高了2.7個(gè)FID點(diǎn)。
論文名稱:Exploring and Distilling Cross-Modal Information for Image Captioning
作者:Liu Fenglin /Ren Xuancheng /Liu Yuanxin /Lei Kai /Sun Xu
發(fā)表時(shí)間:2020/2/28
論文鏈接:https://paper.yanxishe.com/review/12958?from=leiphonecolumn_paperreview0309
推薦原因
這篇論文要解決的是圖像描述任務(wù)。
這篇論文認(rèn)為圖像理解需要相關(guān)區(qū)域的視覺注意力信息和對應(yīng)感興趣的屬性的語義注意力信息。為進(jìn)行有效的注意力捕獲,這篇論文從交互模態(tài)的角度探索圖像描述任務(wù),并提出全局局部信息探索與蒸餾方法,同時(shí)以視覺的和語言的方式探索并提取原始信息。通過提取顯著區(qū)域群組以及屬性的搭配信息,新方法在全局參考基于字幕上下文的圖像空間和關(guān)系表示,在局部提取細(xì)粒度區(qū)域和屬性以進(jìn)行單詞選擇。這篇論文所提的全注意力模型在離線COCO評(píng)估中獲得129.3的CIDEr評(píng)分,在準(zhǔn)確性、速度和參數(shù)量方面均具有優(yōu)勢。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。
加入論文作者團(tuán)隊(duì)你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。
加入論文作者團(tuán)隊(duì)你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無偏場景圖生成等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。