0
本文作者: AI研習(xí)社 | 2020-03-11 14:58 |
跨模態(tài)行人重識別:共享與特異特征變換算法cm-SSFT
GarmentGAN:具有圖片真實感的對抗時尚遷移
學(xué)習(xí)將紋理從服裝圖像轉(zhuǎn)移到3D人體
學(xué)會注意錯誤
MINA: 非剛性形狀對齊的凸混合整數(shù)規(guī)劃
論文名稱:Cross-modality Person re-identification with Shared-Specific Feature Transfer
作者:Yan Lu
發(fā)表時間:2020/2/1
論文鏈接:https://paper.yanxishe.com/review/13406?from=leiphonecolumn_paperreview0311
推薦原因
本文主要是解決紅外線-RGB跨模態(tài)行人重識別的問題。由于Specific feature在對面模態(tài)中是不存在的,所以目前工業(yè)界大部分跨模態(tài)行人在識別算法通常只關(guān)注shared feature learning,很少關(guān)注Specific feature,比如在紅外線圖片中是沒有彩色顏色信息的。
主要創(chuàng)新點:利用近鄰信息:給定一紅外線query。當搜索彩色target時,可以先找到一些簡單的置信度高的彩色樣本,接著把這些彩色樣本的顏色特異特征給與紅外線query,如此往復(fù),便可以實現(xiàn)利用這些彩色信息再去搜索更難的彩色樣本的功能。
論文名稱:GarmentGAN: Photo-realistic Adversarial Fashion Transfer
作者:Amir Hossein Raffiee /Michael Sollami
發(fā)表時間:2020/3/4
論文鏈接:https://paper.yanxishe.com/review/13309?from=leiphonecolumn_paperreview0311
推薦原因
基于機器學(xué)習(xí)的服裝遷移是近些年的一個研究熱點,是將虛擬試衣落地的較為現(xiàn)實的解決方案,具有非常大的商業(yè)價值和市場前景。
一般服裝遷移問題包含兩個任務(wù):一是學(xué)習(xí)將目標人體和服裝分離,二是生成目標人體穿著任意衣服的新的圖片。本文提出的GarmentGAN是一種基于生成對抗網(wǎng)絡(luò)的服裝遷移算法,其包含兩個獨立的GAN:形狀遷移網(wǎng)絡(luò)和外觀遷移網(wǎng)絡(luò),分別處理這兩個任務(wù),能夠生成較為逼真的目標圖片,對于復(fù)雜的人體姿態(tài)、手部姿勢、遮擋情況都能處理的不錯。作者最后將GarmentGAN與目前state-of-the-art的方法進行了定性和定量的比較,證明了該方法的有效性。
論文名稱:Learning to Transfer Texture from Clothing Images to 3D Humans
作者:Aymen Mir /Thiemo Alldieck /Gerard Pons-Moll
發(fā)表時間:2020/3/4
論文鏈接:https://paper.yanxishe.com/review/13303?from=leiphonecolumn_paperreview0311
推薦原因
本文已被CVPR2020接收,提出了一種實時自動的從衣服圖片的紋理遷移到SMPL人體模型的3D服裝上,是一種3D虛擬試衣的最新解決方案,數(shù)據(jù)和代碼將被開源,目前尚未公開。項目地址:https://virtualhumans.mpi-inf.mpg.de/pix2surf/。
作者首先使用非剛性3D到2D注冊的方法,生成了服裝圖片和3D外衣的數(shù)據(jù)對,這種方法非常準確但是速度很慢。然后作者基于這些數(shù)據(jù)對,通過神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)了圖片像素到3D服裝表面的映射。作者通過實驗表面該方法比基于薄板樣條的圖片變形和圖片到圖片的遷移網(wǎng)絡(luò)更加準確更加快速。
文章方法提供了3D虛擬試衣的新方法,效果逼真,速度快(實時),值得關(guān)注。
論文名稱:Learning to pay attention on mistakes
作者:Anonymous authors
發(fā)表時間:2020/1/25
論文鏈接:https://paper.yanxishe.com/review/13405?from=leiphonecolumn_paperreview0311
推薦原因
在醫(yī)學(xué)圖像分割任務(wù)中,重點是從背景像素中檢測和區(qū)分出代表感興趣區(qū)域的前景像素。到目前為止,背景像素構(gòu)成了圖像中大多數(shù)像素。這導(dǎo)致基于深度學(xué)習(xí)的醫(yī)學(xué)圖像分割頻繁出現(xiàn)的假陰性像素分類,即前景像素被錯誤地分類為屬于背景像素類別。作者提出了一種新的注意力機制來解決這種較高的假陰性檢測率。作者的方法試圖引導(dǎo)模型進行更多的假陽性檢測,從而糾正由于訓(xùn)練數(shù)據(jù)不平衡而導(dǎo)致的分類結(jié)果不平衡。提出的注意力機制有三種實現(xiàn)方式:(1)顯式指導(dǎo)模型以檢測誤報;(2)通過轉(zhuǎn)向相反的假陰性來隱式學(xué)習(xí)假陽性;(3)在多任務(wù)環(huán)境中,共同引導(dǎo)假陽性和假陰性的學(xué)習(xí)。為了驗證提出的方法,作者在一個比較難的任務(wù)中驗證了我們提出的網(wǎng)絡(luò):對腫瘤核心進行分割。在BRATS 2018訓(xùn)練數(shù)據(jù)上進行5次交叉驗證后,作者的模型優(yōu)于9個最新的基準模型,包括:空間注意力,空間通道注意力和自我注意力。作者的第三種實現(xiàn)將假陰性降低了10.4%,而假陽性的檢增加卻可以忽略不計。作者的第三個方案還將網(wǎng)絡(luò)的Hausdorff距離提高了28%以上,同時將IoU值提高了3%以上。除了顯著的性能提升外,提出的注意機制通過一個有效的感受也具有直觀的可解釋。因為該論文還在Under Review,為了保持保持匿名,該論文隱藏了GitHub上的代碼的鏈接,后續(xù)會公布。
論文名稱:MINA: Convex Mixed-Integer Programming for Non-Rigid Shape Alignment
作者:Florian Bernard /Zeeshan Khan Suri /Christian Theobalt
發(fā)表時間:2020/2/28
論文鏈接:https://paper.yanxishe.com/review/12864?from=leiphonecolumn_paperreview0311
推薦原因
形狀匹配 (Shape Matching) 是計算機視覺、圖形學(xué)等眾多領(lǐng)域的基本問題,其主要是研究如何在兩個形狀之間建立對應(yīng)的問題。
本文作者提出了一個用于非剛性形狀匹配的凸混合整數(shù)規(guī)劃公式,為了解決該問題,作者提出了一種基于有效的低維離散模型的形狀變形模型,能夠在(大多數(shù))實際情況下很容易地求得全局最優(yōu)解。
文章的方法有眾多優(yōu)勢:其不依賴與初始值,能夠有效收斂到全局最優(yōu)解、在處理匹配問題的變種時非常靈活等等。作者通過實驗證明了文章方法優(yōu)于現(xiàn)有的稀疏形狀匹配方法,并可以用來初始化稠密匹配算法。
為了更好地服務(wù)廣大 AI 青年,AI 研習(xí)社正式推出全新「論文」版塊,希望以論文作為聚合 AI 學(xué)生青年的「興趣點」,通過論文整理推薦、點評解讀、代碼復(fù)現(xiàn)。致力成為國內(nèi)外前沿研究成果學(xué)習(xí)討論和發(fā)表的聚集地,也讓優(yōu)秀科研得到更為廣泛的傳播和認可。
我們希望熱愛學(xué)術(shù)的你,可以加入我們的論文作者團隊。
加入論文作者團隊你可以獲得
1.署著你名字的文章,將你打造成最耀眼的學(xué)術(shù)明星
2.豐厚的稿酬
3.AI 名企內(nèi)推、大會門票福利、獨家周邊紀念品等等等。
加入論文作者團隊你需要:
1.將你喜歡的論文推薦給廣大的研習(xí)社社友
2.撰寫論文解讀
如果你已經(jīng)準備好加入 AI 研習(xí)社的論文兼職作者團隊,可以添加運營小姐姐的微信(ID:julylihuaijiang),備注“論文兼職作者”
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | 縮放神經(jīng)網(wǎng)絡(luò);形變的LSTM;知識圖譜復(fù)雜問答;陰影著色等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。