丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

本文作者: AI研習(xí)社 2020-03-09 15:40
導(dǎo)語:為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  目錄

多軌跡預(yù)測研究

針對VI-ReID的分層跨模態(tài)行人在識(shí)別

3DMM 人臉模型:從過去到現(xiàn)在到未來

一種基于U-Net的生成性對抗網(wǎng)絡(luò)判別器

用于圖像描述的交叉模態(tài)信息的探索和蒸餾

  多軌跡預(yù)測研究

論文名稱:The Garden of Forking Paths: Towards Multi-Future Trajectory Predictio

作者:Junwei Liang

發(fā)表時(shí)間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13151?from=leiphonecolumn_paperreview0309

推薦原因

研究意義:

軌跡預(yù)測問題是目前AI方向研究的一個(gè)熱點(diǎn)問題。基于此,本文利用多種不同軌跡類型研究了如何高效準(zhǔn)確的預(yù)測出路徑的可能分布,從而有助于未來在多目標(biāo)預(yù)測方面的研究和應(yīng)用。

創(chuàng)新點(diǎn):

1、創(chuàng)建了一個(gè)基于我們現(xiàn)實(shí)世界中軌跡數(shù)據(jù)的3D模擬器數(shù)據(jù)集;

2、作者提出了一種新的模型,記為Multiverse,該模型可以準(zhǔn)確地用于多軌跡預(yù)測。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等
今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  針對VI-ReID的分層跨模態(tài)行人在識(shí)別

論文名稱:Hi-CMD:HierarchicalCross-ModalityDisentanglementforVisible-Infrared PersonRe-Identi?cation

作者:Seokeon Choi

發(fā)表時(shí)間:2020/2/1

論文鏈接:https://paper.yanxishe.com/review/13150?from=leiphonecolumn_paperreview0309

推薦原因

研究意義:通過對夜間視頻的監(jiān)控進(jìn)行跨模態(tài)行人識(shí)別是當(dāng)下ReID方向的一個(gè)的難點(diǎn),目前已經(jīng)受到學(xué)術(shù)界的廣泛關(guān)注。在此背景下,作者提出了一種分層跨模態(tài)行人識(shí)別(Hi-CMD)方法。為了實(shí)現(xiàn)該方法,作者引入了ID-preserving圖像的生成網(wǎng)絡(luò)和層次特征學(xué)習(xí)模塊,通過這種網(wǎng)絡(luò)結(jié)構(gòu)可有效的解決行人在不同姿勢和照明條件下進(jìn)行ReID任務(wù)。

文章的創(chuàng)新點(diǎn)

1、提出了種一種新穎的VI-ReID行人跨模態(tài)識(shí)別方法:Hi-CMD,與傳統(tǒng)的模型方法相比,該模型通過區(qū)分ID-discriminative和可見紅外圖像中的ID-excluded兩種因素,有效地減少了跨模態(tài)和模態(tài)內(nèi)的差異。

2、利用ID-PIG網(wǎng)絡(luò),避免可能因訓(xùn)練數(shù)據(jù)不足而帶來的問題。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等
今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  3DMM 人臉模型:從過去到現(xiàn)在到未來

論文名稱:3D Morphable Face Models -- Past, Present and Future

作者:Bernhard Egger / William A. P. Smith / Ayush Tewari / Stefanie Wuhrer / Michael Zollhoefer / Thabo Beeler / Florian Bernard / Timo Bolkart / Adam Kortylewski / Sami Romdhani / Christian Theobalt / Volker Blanz / Thomas Vetter

發(fā)表時(shí)間:2019/9/3

論文鏈接:https://paper.yanxishe.com/review/12956?from=leiphonecolumn_paperreview0309

推薦原因

文章詳細(xì)介紹了 3DMM 人臉模型自20多年前提出至今以來的發(fā)展,是一篇非常全面非常優(yōu)秀的綜述文章,作者都是由該領(lǐng)域的前沿學(xué)者。

雖然已經(jīng)提出有20多年,但 3DMM 模型的構(gòu)建和應(yīng)用,如捕捉、建模、圖像合成和分析等等,仍然存在眾多挑戰(zhàn),是一個(gè)非?;钴S的研究主題,文章回顧了這些領(lǐng)域中的最新技術(shù),在最后進(jìn)一步進(jìn)行了展望,提出了一些挑戰(zhàn),為未來的研究提供了一些方向,并強(qiáng)調(diào)了當(dāng)前和未來的一些應(yīng)用。

強(qiáng)烈建議相關(guān)專業(yè)學(xué)生和老師仔細(xì)研讀,是一個(gè)不可多得的 3DMM 人臉模型的綜述文章。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等
今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  一種基于U-Net的生成性對抗網(wǎng)絡(luò)判別器

論文名稱:A U-Net Based Discriminator for Generative Adversarial Networks

作者:Sch?nfeld Edgar /Schiele Bernt /Khoreva Anna

發(fā)表時(shí)間:2020/2/28

論文鏈接:https://paper.yanxishe.com/review/12959?from=leiphonecolumn_paperreview0309

推薦原因

這篇論文被CVPR 2020接收,提出了一種基于U-Net的判別器架構(gòu),在保持合成圖像的全局一致性的同時(shí),向生成器提供詳細(xì)的每像素反饋。在判別器的每像素響應(yīng)支持下,這篇論文進(jìn)一步提出一種基于CutMix數(shù)據(jù)增強(qiáng)的逐像素一致性正則化技術(shù),鼓勵(lì)U-Net判別器更多關(guān)注真實(shí)圖像與偽圖像之間的語義和結(jié)構(gòu)變化,不僅改善了U-Net判別器的訓(xùn)練,還提高了生成樣本的質(zhì)量。新判別器在標(biāo)準(zhǔn)分布和圖像質(zhì)量指標(biāo)方面改進(jìn)了現(xiàn)有技術(shù),使生成器能夠合成具有變化結(jié)構(gòu)、外觀和詳細(xì)程度的圖像,并保持全局和局部真實(shí)感。與BigGAN基線模型相比,所提方法在FFHQ、CelebA和COCO-Animals數(shù)據(jù)集上平均提高了2.7個(gè)FID點(diǎn)。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等
今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  用于圖像描述的交叉模態(tài)信息的探索和蒸餾

論文名稱:Exploring and Distilling Cross-Modal Information for Image Captioning

作者:Liu Fenglin /Ren Xuancheng /Liu Yuanxin /Lei Kai /Sun Xu

發(fā)表時(shí)間:2020/2/28

論文鏈接:https://paper.yanxishe.com/review/12958?from=leiphonecolumn_paperreview0309

推薦原因

這篇論文要解決的是圖像描述任務(wù)。

這篇論文認(rèn)為圖像理解需要相關(guān)區(qū)域的視覺注意力信息和對應(yīng)感興趣的屬性的語義注意力信息。為進(jìn)行有效的注意力捕獲,這篇論文從交互模態(tài)的角度探索圖像描述任務(wù),并提出全局局部信息探索與蒸餾方法,同時(shí)以視覺的和語言的方式探索并提取原始信息。通過提取顯著區(qū)域群組以及屬性的搭配信息,新方法在全局參考基于字幕上下文的圖像空間和關(guān)系表示,在局部提取細(xì)粒度區(qū)域和屬性以進(jìn)行單詞選擇。這篇論文所提的全注意力模型在離線COCO評(píng)估中獲得129.3的CIDEr評(píng)分,在準(zhǔn)確性、速度和參數(shù)量方面均具有優(yōu)勢。

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等
今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

  論文作者團(tuán)隊(duì)招募

為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點(diǎn)」,通過論文整理推薦、點(diǎn)評(píng)解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認(rèn)可。

我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團(tuán)隊(duì)。

加入論文作者團(tuán)隊(duì)你可以獲得

    1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星

    2.豐厚的稿酬

    3.AI 名企內(nèi)推、大會(huì)門票福利、獨(dú)家周邊紀(jì)念品等等等。

加入論文作者團(tuán)隊(duì)你需要:

    1.將你喜歡的論文推薦給廣大的研習(xí)社社友

    2.撰寫論文解讀

如果你已經(jīng)準(zhǔn)備好加入 AI 研習(xí)社的論文兼職作者團(tuán)隊(duì),可以添加運(yùn)營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)

相關(guān)文章:

今日 Paper | 4D關(guān)聯(lián)圖;通用表征學(xué)習(xí);元轉(zhuǎn)移學(xué)習(xí);無偏場景圖生成等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

今日 Paper | 多軌跡預(yù)測研究;3DMM 人臉模型;對抗網(wǎng)絡(luò)判別器;交叉模態(tài)信息等

分享:

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說