0
本文作者: AI研習(xí)社 | 2020-04-09 14:43 |
通過強(qiáng)化學(xué)習(xí)對抽取的摘要進(jìn)行排序
用于抽象文本摘要的基于深度遞歸生成解碼器
用于可控圖像合成的學(xué)習(xí)布局和風(fēng)格的可重構(gòu)GANs
BachGAN:基于顯著物體布局的高分辨率圖像合成
時間序列分類:近鄰vs深度學(xué)習(xí)模型
論文名稱:Ranking Sentences for Extractive Summarization with Reinforcement Learning
作者:Shashi Narayan
發(fā)表時間:2018/5/17
論文鏈接:https://paper.yanxishe.com/review/14777?from=leiphonecolumn_paperreview0409
推薦原因
本文的研究內(nèi)容以及創(chuàng)新點:
這是一篇關(guān)于文本摘要的文章。目前,學(xué)術(shù)界對于單一文檔摘要定義為”保留主要信息內(nèi)容,同時生成較短版本的文檔“,在此背景下,作者把提取文本摘要的任務(wù)轉(zhuǎn)化為句子的排序任務(wù),通過強(qiáng)化學(xué)習(xí)全局優(yōu)化ROUGE評估指標(biāo),開發(fā)了一個提取摘要模型,該模型的訓(xùn)練算法在學(xué)習(xí)優(yōu)化與當(dāng)前任務(wù)相關(guān)的損失函數(shù)的同時,對候選摘要的維度進(jìn)行的研究。實驗結(jié)果表明,強(qiáng)化學(xué)習(xí)提供了一種很好的方法,可以指導(dǎo)我們的模型產(chǎn)生信息豐富,流利且簡潔的信息。摘要在CNN和DailyMail數(shù)據(jù)集上的表現(xiàn)均優(yōu)于已知模型。
論文名稱:Deep Recurrent Generative Decoder for Abstractive Text Summarization
作者:Piji Li
發(fā)表時間:2017/5/11
論文鏈接:https://paper.yanxishe.com/review/14778?from=leiphonecolumn_paperreview0409
推薦原因
本文的研究目的和創(chuàng)新點:
本文針對生成文本摘要任務(wù),提出了一種新的模型,該模型的框架依托深度遞歸生成解碼器(DRGN),它是一種面向序列到序列的編/解碼器模型。對于DRGN模型而言,他的學(xué)習(xí)目標(biāo)是模型中遞歸潛在的隨機(jī)隱含信息,通過學(xué)習(xí)這些隨機(jī)隱含信息,對于提高生成文本摘要的質(zhì)量極為重要。最后,作者在基準(zhǔn)數(shù)據(jù)集上進(jìn)行了大量實驗,實驗表明,DRGD模型可以有效的解決文本摘要任務(wù)。
論文名稱:Learning Layout and Style Reconfigurable GANs for Controllable Image Synthesis
作者:Sun Wei /Wu Tianfu
發(fā)表時間:2020/3/25
論文鏈接:https://paper.yanxishe.com/review/15417?from=leiphonecolumn_paperreview0409
推薦原因
這篇論文要解決的是布局轉(zhuǎn)圖像的問題,即學(xué)習(xí)一個生成模型,能夠通過空間布局信息和樣式信息來合成真實圖像。這篇論文首先提出了從布局到掩碼到圖像的任務(wù),即學(xué)習(xí)如何在輸入布局中展開給定邊界框的對象掩碼,以彌補(bǔ)輸入布局與合成圖像之間的差距。在此基礎(chǔ)上,這篇論文提出了一種基于生成式對抗網(wǎng)絡(luò)的布局到掩碼到圖像方法,并在圖像和掩模兩個層次上進(jìn)行了風(fēng)格控制。圖像級的樣式控制與普通的GANs相同,而對象掩碼級的樣式控制是通過一種新的特征歸一化方案、實例敏感和布圖感知歸一化來實現(xiàn)的。新方法在COCO-Stuff數(shù)據(jù)集和可視化基因組數(shù)據(jù)集上進(jìn)行了驗證,獲得了較好的性能表現(xiàn)。
論文名稱:BachGAN: High-Resolution Image Synthesis from Salient Object Layout
作者:Li Yandong /Cheng Yu /Gan Zhe /Yu Licheng /Wang Liqiang /Liu Jingjing
發(fā)表時間:2020/3/26
論文鏈接:https://paper.yanxishe.com/review/15416?from=leiphonecolumn_paperreview0409
推薦原因
這篇論文提出了一個新的問題,即從顯著物體布局來生成高質(zhì)量圖像。在這個問題中,用戶僅提供物體的布局,即前景邊界框和類別,由模型發(fā)明背景和匹配前景來完成繪圖。為了解決這個問題,這篇論文提出了一個背景幻覺生成對抗網(wǎng)絡(luò)(Background Hallucination Generative Adversarial Network,BachGAN),首先通過背景檢索模塊從一個大型候選庫中選擇一組分割圖,然后通過背景融合模塊對這些候選布局進(jìn)行編碼,以對給定對象的合適背景進(jìn)行幻覺處理。通過動態(tài)生成幻覺背景表示,BachGAN可以合成具有逼真前景和完整背景的高分辨率圖像。在Cityscapes和ADE20K數(shù)據(jù)集上進(jìn)行的實驗證明了BachGAN在生成圖像的視覺保真度及輸出圖像和輸入布局之間的視覺對齊方面優(yōu)于現(xiàn)有方法。
論文名稱:Time series classification: nearest neighbor versus deep learning models
作者:Weiwei Jiang
發(fā)表時間:2020/3/20
論文鏈接:https://paper.yanxishe.com/review/15415?from=leiphonecolumn_paperreview0409
推薦原因
深度學(xué)習(xí)方法在圖像處理等問題上取得了巨大的成功,然而在一維時間序列分類的問題上,動態(tài)時間規(guī)整(DTW)算法等傳統(tǒng)方法仍然占據(jù)著重要的地位。近年來,有不少研究表明全卷積網(wǎng)絡(luò)、殘差網(wǎng)絡(luò)等深度學(xué)習(xí)模型在一些時間序列分類問題中也取得了超越傳統(tǒng)模型的表現(xiàn)。這篇論文通過在UCR的128個時間序列數(shù)據(jù)集上全面評估基于8種不同度量的近鄰方法和3種不同的深度學(xué)習(xí)模型,試圖回答是否深度學(xué)習(xí)模型超越了傳統(tǒng)的距離度量方法。大量的實驗表明,盡管全卷積網(wǎng)絡(luò)和殘差網(wǎng)絡(luò)的平均準(zhǔn)確率優(yōu)于傳統(tǒng)的距離度量方法,在統(tǒng)計檢驗的視角上這兩種方法沒有顯著優(yōu)于基于動態(tài)時間規(guī)整和實補(bǔ)償編輯距離的方法。
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
相關(guān)文章:
今日 Paper | ScrabbleGAN;UnrealText;跟蹤模型;G2L-Net等
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。