丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

本文作者: AI研習(xí)社 2020-01-13 15:30
導(dǎo)語: 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。

為了幫助各位學(xué)術(shù)青年更好地學(xué)習(xí)前沿研究成果和技術(shù),AI科技評論聯(lián)合Paper 研習(xí)社(paper.yanxishe.com),重磅推出【今日 Paper】欄目, 每天都為你精選關(guān)于人工智能的前沿學(xué)術(shù)論文供你學(xué)習(xí)參考。以下是今日的精選內(nèi)容——

  目錄

  • ClothFlow: A Flow-Based Model for Clothed Person Generation

  • Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

  • SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

  • Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

  • Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

  • Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

  • node2vec: Scalable Feature Learning for Networks

  • Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

  • Coordination of Autonomous Vehicles: Taxonomy and Survey

  • A Survey on 3D Object Detection Methods for Autonomous Driving Applications

  ClothFlow: 基于流程的人員生成模型

論文名稱:ClothFlow: A Flow-Based Model for Clothed Person Generation

作者:Xintong Han / Xiaojun Hu / Weilin Huang / Matthew R. Scott

發(fā)表時間:2019/10/27

論文鏈接:https://paper.yanxishe.com/review/8611?from=leiphonecolumn_paperreview0113

推薦理由:

提出了一個基于外觀流的生成模型ClothFlow,該模型可以合成穿衣人,用于定位引導(dǎo)的人的圖像生成和虛擬試穿。ClothFlow通過估計源和目標(biāo)服裝區(qū)域之間的密集流動,有效地模擬了幾何變化,自然地轉(zhuǎn)移了外觀,合成了新的圖像,如圖1所示。我們通過一個three-stage框架實現(xiàn)了這一點:1)以目標(biāo)姿態(tài)為條件,我們首先估計一個人的語義布局,為生成過程提供更豐富的指導(dǎo)。2)級聯(lián)流量估計網(wǎng)絡(luò)建立在兩個特征金字塔網(wǎng)絡(luò)的基礎(chǔ)上,準(zhǔn)確地估計出對應(yīng)服裝區(qū)域之間的外觀匹配。由此產(chǎn)生的稠密流扭曲源圖像,靈活地解釋變形。3)最后,生成網(wǎng)絡(luò)以扭曲的服裝區(qū)域為輸入,呈現(xiàn)目標(biāo)視圖。我們在深度時尚數(shù)據(jù)集和VITON數(shù)據(jù)集上進(jìn)行了大量的實驗,分別用于定位引導(dǎo)的人物圖像生成和虛擬實驗任務(wù)。較強的定性和定量結(jié)果驗證了該方法的有效性。

Pose-guided person generation 和Virtual try>※ Deformation-based methods (eg: affine ; TPS;NN)

※ DensePose-based methods

即基于變形的方法和基于密度的方法

幾何變形的更好的外觀轉(zhuǎn)移,但是較大的幾何變換,容易導(dǎo)致不準(zhǔn)確、不自然的變換估計

基于密度的方法,映射2D圖片到3D的人身體,結(jié)果看起來不夠逼真。

因此作者提出的ClothFlow:a flow-based generative model ;解決衣服變形clothing deformation;從而更好的合成人穿衣的圖片;

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  雙向門控遞歸單元網(wǎng)絡(luò)的表格結(jié)構(gòu)提取

論文名稱:Table Structure Extraction with Bi-directional Gated Recurrent Unit Networks

作者:Khan Saqib Ali /Khalid Syed Muhammad Daniyal /Shahzad Muhammad Ali /Shafait Faisal

發(fā)表時間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8614?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文要解決的是表格結(jié)構(gòu)識別的問題。

表向讀者呈現(xiàn)了匯總的結(jié)構(gòu)化信息,這使表結(jié)構(gòu)提取成為理解應(yīng)用程序的重要組成部分。但是,表結(jié)構(gòu)的識別是一個難題,這不僅是因為表布局和樣式的變化很大,而且還因為頁面布局和噪聲污染水平的變化。已經(jīng)進(jìn)行了很多研究來識別桌子的結(jié)構(gòu),其中大部分是基于借助光學(xué)字符識別(OCR)將啟發(fā)式方法應(yīng)用于桌子的手抓布局特征的。由于表布局的變化以及OCR產(chǎn)生的錯誤,這些方法無法很好地概括。

在本文中,作者提出了一種基于魯棒深度學(xué)習(xí)的方法,可以從文檔圖像中的檢測表中高精度提取行和列。在提出的解決方案中,首先對表格圖像進(jìn)行預(yù)處理,然后將其饋送到具有門控循環(huán)單元(GRU)的雙向循環(huán)神經(jīng)網(wǎng)絡(luò),然后是具有最大軟激活的完全連接層。網(wǎng)絡(luò)從上到下以及從左到右掃描圖像,并將每個輸入分類為行分隔符或列分隔符。作者已經(jīng)在公開的UNLV以及ICDAR 2013數(shù)據(jù)集上對作者的系統(tǒng)進(jìn)行了基準(zhǔn)測試,在該數(shù)據(jù)集上,其性能遠(yuǎn)遠(yuǎn)超過了最新的表格結(jié)構(gòu)提取系統(tǒng)。這篇論文在公開的UNLV和ICDAR 2013數(shù)據(jù)集上進(jìn)行了實驗,驗證了所提出的方法顯著優(yōu)于當(dāng)前該領(lǐng)域的最佳方案。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  SPACE:通過空間注意和分解的無監(jiān)督的面向?qū)ο蟮膱鼍氨硎?/strong>

論文名稱:SPACE: Unsupervised Object-Oriented Scene Representation via Spatial Attention and Decomposition

作者:Lin Zhixuan /Wu Yi-Fu /Peri Skand Vishwanath /Sun Weihao /Singh Gautam /Deng Fei /Jiang Jindong /Ahn Sungjin

發(fā)表時間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8615?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是多目標(biāo)場景分解的問題。

基于對象的場景表示學(xué)習(xí)的無監(jiān)督方法可以分為基于空間注意力機制和基于場景混合這兩類,然而這些方法都受限于可擴展性,阻礙了它們進(jìn)一步應(yīng)用于現(xiàn)實場景。這篇論文提出一個名為SPACE的生成潛在變量模型,以提供一套統(tǒng)一的概率建??蚣軄斫M合空間注意力與場景混合中的最佳方法。SPACE可以為前景對象提供精準(zhǔn)的分解對象表示信息,同時分解復(fù)雜形態(tài)的背景片段。另外,SPACE也通過引入并行的空間注意力機制解決了擴展性問題,因而可以應(yīng)用到含有大量對象的場景中。在Atari和3D-Rooms上的實驗表明,SPACE與先前的方法SPAIR,IODINE和GENESIS相比具有更好的表現(xiàn)。作者們也提供了項目的網(wǎng)站(https://sites.google.com/view/space-project-page)。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  基于云的圖像分類服務(wù)對簡單的轉(zhuǎn)換不是很魯棒:一個被遺忘的戰(zhàn)場

論文名稱:Cloud-based Image Classification Service Is Not Robust To Simple Transformations: A Forgotten Battlefield

作者:Goodman Dou /Wei Tao

發(fā)表時間:2019/6/19

論文鏈接:https://paper.yanxishe.com/review/8617?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是對基于云的圖像分類服務(wù)的對抗樣例生成問題。

基于云的圖像分類服務(wù)對于諸如高斯噪聲、椒鹽噪聲、旋轉(zhuǎn)和單色化之類的簡單轉(zhuǎn)換(ST)并不魯棒?;谶@一點,這篇論文提出了一個圖像融合攻擊(Image Fusion,IF)方法,利用OpenCV就可以實現(xiàn),而且很難防御。這篇論文在Amazon,Google,Microsoft,Clarifai在內(nèi)的四個流行云平臺上評估了ST和IF方法,實驗結(jié)果表明除了在Amazon上成功率在50%之外,ST在其他的平臺上的攻擊成功率都為100%,而IF方法在不同分類服務(wù)中的成功率均超過98%。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  用于反向和串行風(fēng)格遷移的通過隱寫術(shù)進(jìn)行的自包含樣式化

論文名稱:Self-Contained Stylization via Steganography for Reverse and Serial Style Transfer

作者:Chen Hung-Yu /Fang I-Sheng /Chiu Wei-Chen

發(fā)表時間:2018/12/10

論文鏈接:https://paper.yanxishe.com/review/8618?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是圖像風(fēng)格遷移的問題。

給定一個風(fēng)格化的圖像,使用典型的風(fēng)格遷移方法進(jìn)行去樣式化或?qū)⑵湓俅无D(zhuǎn)換為另一種樣式,通常會得到偽像或不良的結(jié)果。這篇論文認(rèn)為這類問題是由于原始圖像與其樣式輸出之間的內(nèi)容不一致所導(dǎo)致的。這篇論文提出利用隱寫術(shù)在遷移過程中保持輸入圖像內(nèi)容信息,并提出了一個兩階段的方法和一個端到端的方法。實驗結(jié)果表明這篇論文提出的方法不僅能生成與典型風(fēng)格遷移方法所產(chǎn)生的圖像質(zhì)量相當(dāng)?shù)娘L(fēng)格化圖像,而且還可以有效消除重建原始輸入時引入的偽像。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  不要通過上下文來判斷對象:學(xué)會克服上下文的偏見

論文名稱:Don't Judge an Object by Its Context: Learning to Overcome Contextual Bias

作者:Singh Krishna Kumar /Mahajan Dhruv /Grauman Kristen /Lee Yong Jae /Feiszli Matt /Ghadiyaram Deepti

發(fā)表時間:2020/1/9

論文鏈接:https://paper.yanxishe.com/review/8619?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文考慮的是對象識別問題。

在對象識別中,現(xiàn)有模型常常利用對象和其上下文的共現(xiàn)信息來提升識別準(zhǔn)確率。但是,嚴(yán)重依賴上下文可能會對模型的泛化性造成風(fēng)險。這篇論文試圖解決這種上下文偏移問題,以提升學(xué)到的特征表示的魯棒性,使得在一個對象的上下文缺失的情況下依然能準(zhǔn)確識別出其類型。這篇論文的核心想法是從共現(xiàn)的上下文中去掉與類別的特征表示相關(guān)的信息,通過聯(lián)合學(xué)習(xí)兩類特征空間,一類特征子空間能在沒有共現(xiàn)的情況下精準(zhǔn)表示類別,另一類則同時表示類別和上下文。在四個充滿挑戰(zhàn)的數(shù)據(jù)集上的實驗證明這篇論文所提出的方法的有效性。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  node2vec 網(wǎng)絡(luò)特征學(xué)習(xí)算法

論文名稱:node2vec: Scalable Feature Learning for Networks

作者:Grover Aditya /Leskovec Jure

發(fā)表時間:2016/7/3

論文鏈接:https://paper.yanxishe.com/review/8624?from=leiphonecolumn_paperreview0113

推薦理由:本文來自網(wǎng)絡(luò)分析超強組Stanford的Jure組.

deepwalk作為一種基于隨機游走的網(wǎng)絡(luò)表示學(xué)習(xí)算法,通過在網(wǎng)絡(luò)進(jìn)行隨機游走來獲取節(jié)點序列.

但是網(wǎng)絡(luò)上的隨機游走有深度優(yōu)先和廣度優(yōu)先,并且他們可以從不同角度來捕獲網(wǎng)絡(luò)本身結(jié)構(gòu)特點.本文在deepwalk的基礎(chǔ)上設(shè)計了一種個性化的隨機游走,通過兩個超參數(shù)p和q來控制隨機游走的方向.需要注意的是,當(dāng)p=q=1的時候,node2vec退化成deepwalk.至于表示學(xué)習(xí)模型的部分還是skip-gram并沒有本質(zhì)變化.

實驗結(jié)果也驗證了本文所提出算法的有效性.

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  匯率可以用來預(yù)測上證指數(shù)嗎?

論文名稱:Can the Exchange Rate Be Used to Predict the Shanghai Composite Index?

作者:Jun Zhang / Yuan-Hai Shao /Ling-Wei Huang /Jia-Ying Teng / Yu-Ting Zhao /Zhu-Kai Yang / Xin-Yang Li

發(fā)表時間:2019/12/25

論文鏈接:https://paper.yanxishe.com/review/8612?from=leiphonecolumn_paperreview0113

推薦理由:這篇論文首次嘗試了直接利用匯率來預(yù)測上證指數(shù),基本做法是構(gòu)建基于匯率的技術(shù)指標(biāo)作為輸入特征,然后利用SVM進(jìn)行走勢的分類。通過與基于其他輸入(例如基于歷史價量的技術(shù)指標(biāo)、新聞數(shù)據(jù)等)的預(yù)測相比,這篇論文證明了通過匯率來預(yù)測具有相近的表現(xiàn)。并且這篇論文公開了相應(yīng)的數(shù)據(jù)和Matlab代碼。

這篇論文的關(guān)注點在于輸入數(shù)據(jù),而沒有采用特別復(fù)雜的模型,例如深度學(xué)習(xí)模型等。目前多數(shù)據(jù)源作為輸入來預(yù)測股市的走勢正在成為趨勢,往往會比采用單一數(shù)據(jù)具有更好的表現(xiàn)。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  自動駕駛車輛的協(xié)調(diào):分類和綜述

論文名稱:Coordination of Autonomous Vehicles: Taxonomy and Survey

作者:Mariani Stefano /Cabri Giacomo /Zambonelli Franco

發(fā)表時間:2020/1/8

論文鏈接:https://paper.yanxishe.com/review/8613?from=leiphonecolumn_paperreview0113

推薦理由:這是一篇關(guān)于自動駕駛車輛調(diào)度問題的綜述。自動駕駛的車輛之間需要進(jìn)行協(xié)調(diào),以正確處理對共享資源的訪問(例如交叉路口和停車位)以及執(zhí)行機動任務(wù)(例如坡道合并)。這篇論文首先通過識別和構(gòu)建關(guān)鍵的調(diào)度問題類別,介紹與自動駕駛汽車調(diào)度相關(guān)的一般問題。然后概述了可用于管理此類調(diào)度問題的不同方法,并根據(jù)調(diào)度協(xié)調(diào)過程中車輛的決策自主程度對這些方法進(jìn)行分類。最后,這篇論文概述了在自動駕駛車輛能夠?qū)嵱弥?,必須解決的其他一些特殊挑戰(zhàn)。這篇論文關(guān)注的是自動駕駛車輛之間的調(diào)度問題,在自動駕駛實用之前還有很多其他相關(guān)的問題需要解決。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

  面向自動駕駛應(yīng)用的三維目標(biāo)檢測方法綜述

論文名稱:A Survey>作者:Eduardo Arnold /Omar Y. Al-Jarrah /Mehrdad Dianati /Saber Fallah /David Oxtoby /Alex Mouzakitis

發(fā)表時間:2019/1/22

論文鏈接:https://paper.yanxishe.com/review/8620?from=leiphonecolumn_paperreview0113

推薦理由:自動駕駛汽車(AV)需要對其周圍環(huán)境有準(zhǔn)確的感知才能可靠地運行。通常采用機器學(xué)習(xí)(例如,深度學(xué)習(xí))的AV的感知系統(tǒng)將感覺數(shù)據(jù)轉(zhuǎn)換成能夠自動駕駛的語義信息。對象檢測是該感知系統(tǒng)的基本功能,已經(jīng)通過多項工作解決了這些問題,其中大多數(shù)使用2D檢測方法。但是,二維方法不提供深度信息,這是駕駛?cè)蝿?wù)所需的深度信息,例如路徑規(guī)劃,避免碰撞等。替代地,3D對象檢測方法引入了第三維,它揭示了更詳細(xì)的對象尺寸和位置信息。但是,這種方法的檢測精度需要提高。據(jù)所知,這是用于自動駕駛應(yīng)用的3D對象檢測方法的首次調(diào)查。

這篇文章對自動駕駛場景中的三維目標(biāo)檢測方法進(jìn)行了詳細(xì)的綜述,并且介紹了目前普遍使用的傳感器和數(shù)據(jù)集。本文根據(jù)三維目標(biāo)檢測方法所使用到的傳感器,將其分為基于單目相機圖像、點云和融合三大類。然后總結(jié)這些方法的在同一數(shù)據(jù)集上的實驗結(jié)果,以及已有方法存在的不足和未來值得研究的方向。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等
今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)


相關(guān)文章:

今日 Paper | 隨機微分方程;流式自動語音識別;圖像分類等

今日 Paper | 高維感官空間機器人;主動人體姿態(tài)估計;深度視頻超分辨率;行人重識別等

今日 Paper | 3D手勢估計;自學(xué)習(xí)機器人;魯棒語義分割;卷積神經(jīng)網(wǎng)絡(luò);混合高斯過程等

今日 Paper | 精簡BERT;面部交換;三維點云;DeepFakes 及 5G 等

今日 Paper | 虛假新聞檢測;馬爾可夫決策過程;場景文本識別;博弈論框架等

今日 Paper | 問答系統(tǒng);3D人體形狀和姿勢;面部偽造檢測;AdderNet等

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

今日 Paper | 人體圖像生成和衣服虛擬試穿;魯棒深度學(xué)習(xí);圖像風(fēng)格遷移等

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請訪問:yanxishe.com
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄