0
本文作者: AI研習(xí)社 | 2019-09-20 16:25 |
「本周論文推薦精選」是 Paper 研習(xí)社推出的全新欄目,展現(xiàn)社友們?cè)谘辛?xí)論文的過(guò)程中,推薦自己所閱讀到的優(yōu)秀論文,幫助大家一起學(xué)習(xí)、討論每個(gè)領(lǐng)域最新、最精彩的學(xué)術(shù)論文。
①
#卷積 LSTM# #注意力機(jī)制##seq2seq模型#
CLVSA:一個(gè)基于卷積LSTM和注意力機(jī)制的預(yù)測(cè)金融市場(chǎng)走勢(shì)的變分seq2seq模型
推薦理由:1、本文所解決的核心問(wèn)題:股票市場(chǎng)的預(yù)測(cè)是金融和計(jì)算機(jī)相互交叉的一個(gè)問(wèn)題。近年來(lái)許多研究人員試圖將深度學(xué)習(xí)的算法應(yīng)用于金融市場(chǎng)預(yù)測(cè)中,通過(guò)歷史價(jià)格信息、公司基本面信息、研究報(bào)告文本等輸入數(shù)據(jù),判斷股票、股指期貨的價(jià)格走勢(shì)。然而由于股票數(shù)量的限制、金融市場(chǎng)中的噪音等原因,在圖像和語(yǔ)音識(shí)別領(lǐng)域大顯身手的深度學(xué)習(xí)模型能否在金融市場(chǎng)上取得同樣的成功還有待人們進(jìn)一步研究。
2、本文的創(chuàng)新點(diǎn):在這一篇論文中,作者提出了一個(gè)混合模型,將卷積LSTM、注意力機(jī)制和seq2seq模型結(jié)合到一起,通過(guò)5分鐘時(shí)間間隔的原始的價(jià)量信息,預(yù)測(cè)未來(lái)30分鐘之后價(jià)格是否會(huì)上漲還是下跌。在這個(gè)混合模型中,基于KL散度的正則化操作被用于減輕過(guò)擬合。為了驗(yàn)證模型的有效性,作者收集了2010年1月至2017年12月期間,4種商品期貨(原油、黃金、天然氣和大豆)和2種股指期貨(標(biāo)普500和納斯達(dá)克100)的歷史價(jià)量數(shù)據(jù)。通過(guò)滾動(dòng)預(yù)測(cè)的模式(3年時(shí)間作為訓(xùn)練集,2周用于驗(yàn)證和測(cè)試,以1周為步長(zhǎng)滾動(dòng)訓(xùn)練和預(yù)測(cè)),他們驗(yàn)證了這個(gè)混合模型在評(píng)級(jí)準(zhǔn)確率、年化收益率和夏普率上都優(yōu)于單獨(dú)的卷積神經(jīng)網(wǎng)絡(luò),seq2seq模型和LSTM模型。本文涉及到的數(shù)據(jù)來(lái)自于期貨交易商,作者沒(méi)有放出數(shù)據(jù)。同樣,作者也沒(méi)有放出實(shí)現(xiàn)模型的代碼。
3、本文的研究意義:通過(guò)新模型的提出和驗(yàn)證,推動(dòng)了深度學(xué)習(xí)模型在金融市場(chǎng)預(yù)測(cè)上的應(yīng)用。
論文鏈接:https://www.ijcai.org/proceedings/2019/0514.pdf
推薦人:琴?福克納 (清華大學(xué)信息與通信工程,Paper 研習(xí)社特約作者)
②
#計(jì)算機(jī)視覺(jué)#
【大連理工/鵬城/香港城市】MirrorNet:我鏡子呢?
推薦理由一:這是一篇大連理工、鵬城實(shí)驗(yàn)室、香港城市大學(xué)合作的論文,已被ICCV 2019接收。鏡子的反光一直是計(jì)算機(jī)視覺(jué)中一個(gè)令人頭疼的問(wèn)題,而已有的算法尚未考慮它的影響,也因此經(jīng)常被鏡子中反光的圖像迷惑——畢竟鏡子反射的圖像往往和它的周邊環(huán)境又很接近,要讓神經(jīng)網(wǎng)絡(luò)區(qū)分二者實(shí)在是困難。本文則是有史以來(lái)第一篇基于計(jì)算的方式來(lái)處理鏡子語(yǔ)義分割問(wèn)題的工作。作者首先構(gòu)建了一個(gè)大規(guī)模的、涵蓋日常生活各種場(chǎng)景、包含了四千多幅圖像的鏡子分割數(shù)據(jù)庫(kù)——MSD,并提出了一個(gè)用于鏡子分割的網(wǎng)絡(luò)——MirrorNet。MirrorNet使用了上下文對(duì)比特征提?。–CFE)模塊,用于學(xué)習(xí)鏡子里外上下文的對(duì)比,從而分割出各種尺寸的鏡子。實(shí)驗(yàn)表明,使用了CCFE模塊的MirrorNet能夠有效地學(xué)習(xí)這種上下文對(duì)比并在MSD數(shù)據(jù)集上有最佳的分割效果。
推薦人:林肯二百一十三(奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)機(jī)器人視覺(jué)專業(yè),推薦于 CV 論文討論小組。)
推薦理由二:大連理工、鵬城實(shí)驗(yàn)室和香港城市大學(xué)的研究團(tuán)隊(duì)提出了一種從輸入圖像中分割鏡子的新方法。不僅能夠準(zhǔn)確識(shí)別并分割出場(chǎng)景中的鏡子,還能夠消除由于鏡子反射所導(dǎo)致的對(duì)于場(chǎng)景的錯(cuò)誤理解,并幫助一些計(jì)算機(jī)視覺(jué)任務(wù)(例如深度估計(jì)和目標(biāo)檢測(cè))提升魯棒性。他們說(shuō),這是首個(gè)解決鏡子分割的方法,經(jīng)過(guò)大量的實(shí)驗(yàn)表明,性能表現(xiàn)比最先進(jìn)的檢測(cè)和分割方法都要好。
論文鏈接:https://arxiv.org/pdf/1908.09101.pdf
推薦人:志浩(中國(guó)石油大學(xué)(華東) 機(jī)械工程,ICCV 2019頂會(huì)贊助計(jì)劃參與者)
③
#深度學(xué)習(xí)# #卷積網(wǎng)絡(luò)#
ICCV2019 | 修復(fù)視頻,不需要進(jìn)行先驗(yàn)訓(xùn)練,外觀和光流足矣!
推薦理由:本論文來(lái)自斯坦福大學(xué),為ICCV2019接收論文。文章提出了一種新穎的視頻修復(fù)算法,該算法同時(shí)產(chǎn)生缺失的外觀(appearance)和運(yùn)動(dòng)(光流)信息,這種算法建立在最近提出的“深度圖像先驗(yàn)”(DIP)之上,DIP則是利用卷積網(wǎng)絡(luò)架構(gòu)在靜態(tài)圖像中強(qiáng)制執(zhí)行合理的紋理。在將DIP擴(kuò)展到視頻時(shí),本文做出了兩個(gè)重要貢獻(xiàn)。首先,作者表明無(wú)需先驗(yàn)訓(xùn)練即可實(shí)現(xiàn)連貫的視頻修復(fù)。其次,作者表明這樣的框架可以共同產(chǎn)生外觀和光流,同時(shí)利用這些互補(bǔ)的方式可以確保相互一致性。
論文鏈接:https://arxiv.org/abs/1909.07957v1
推薦人:賈偉(清華大學(xué)物理學(xué),Paper 研習(xí)社首席論文推薦官。)
④
#數(shù)據(jù)挖掘#
圖神經(jīng)網(wǎng)絡(luò)完全綜述,來(lái)自Philip S. Yu大佬的鼎力之作
推薦理由:沒(méi)得說(shuō),這是來(lái)自數(shù)據(jù)挖掘領(lǐng)域的巨擘Philip S. Yu老師的大作!質(zhì)量和深度毋庸置疑。 具體就不再展開(kāi),下面是摘要的中文翻譯: 近年來(lái),深度學(xué)習(xí)徹底改變了許多機(jī)器學(xué)習(xí)任務(wù),從圖像分類和視頻處理到語(yǔ)音識(shí)別和自然語(yǔ)言理解。這些任務(wù)中的數(shù)據(jù)通常表示在歐幾里德空間中。然而,越來(lái)越多的應(yīng)用程序從非歐幾里德域生成數(shù)據(jù),并表示為具有復(fù)雜關(guān)系和對(duì)象之間相互依賴性的圖。 圖數(shù)據(jù)的復(fù)雜性給現(xiàn)有的機(jī)器學(xué)習(xí)算法帶來(lái)了重大挑戰(zhàn)。最近,出現(xiàn)了許多關(guān)于擴(kuò)展圖形數(shù)據(jù)的深度學(xué)習(xí)方法的研究。在本次調(diào)查中,我們提供了數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)領(lǐng)域中圖形神經(jīng)網(wǎng)絡(luò)(GNN)的全面概述。我們提出了一種新的分類法,將最先進(jìn)的圖神經(jīng)網(wǎng)絡(luò)劃分為四類,即循環(huán)圖神經(jīng)網(wǎng)絡(luò),卷積圖神經(jīng)網(wǎng)絡(luò),圖自動(dòng)編碼器和時(shí)空?qǐng)D神經(jīng)網(wǎng)絡(luò)。我們進(jìn)一步討論了圖神經(jīng)網(wǎng)絡(luò)在各個(gè)領(lǐng)域的應(yīng)用,并總結(jié)了現(xiàn)有算法在不同學(xué)習(xí)任務(wù)中的開(kāi)源代碼和基準(zhǔn)。最后,我們?cè)谶@個(gè)快速發(fā)展的領(lǐng)域提出了潛在的研究方向。
論文鏈接:https://arxiv.org/abs/1901.00596
推薦人:賈偉(清華大學(xué)物理學(xué),Paper 研習(xí)社首席論文推薦官。)
⑤
#深度學(xué)習(xí)##網(wǎng)絡(luò)優(yōu)化# #網(wǎng)絡(luò)訓(xùn)練#
【三星】AdaptIS:自適應(yīng)實(shí)例選擇網(wǎng)絡(luò)
推薦理由:這是Samsung AI Center發(fā)表的一篇全景分割論文,已被ICCV 2019接收。本文提出了自適應(yīng)實(shí)例選擇網(wǎng)絡(luò)(Adaptive Instance Selection Network),給定圖像和其中任意像素的坐標(biāo),AdaptIS即可精準(zhǔn)輸出這個(gè)像素處任意物體的mask。與目前流行的先檢測(cè)后分割的方法不同,AdaptIS直接從像素點(diǎn)出發(fā),達(dá)到對(duì)任意類別、任意形狀物體的精準(zhǔn)分割。AdaptIS不使用COCO預(yù)訓(xùn)練即可在全景分割數(shù)據(jù)集Cityscapes和Mapillary上達(dá)到了state-of-the-art的效果,PQ(Panoptic Quality)指標(biāo)分別為62.0和35.9,在COCO數(shù)據(jù)集上也有不錯(cuò)的效果。本文代碼與模型將開(kāi)源于:https://github.com/saic-vul/adaptis,目前只是占了個(gè)坑,實(shí)際代碼還未放出。有興趣的童鞋可以關(guān)注一下~
論文鏈接:https://arxiv.org/abs/1909.07829
項(xiàng)目地址:https://github.com/saic-vul/adaptis
推薦人:林肯二百一十三(奈良先端科學(xué)技術(shù)大學(xué)院大學(xué)機(jī)器人視覺(jué)專業(yè),推薦于 CV 論文討論小組。)
???
除了上述的的五篇精選論文推薦,我們還為你精心準(zhǔn)備了可以一鍵下載的論文集:
ACL 歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1009?from=leiphonecolumn
ICCV 2019 | 最新公開(kāi)的51篇 Oral Paper 合集
下載地址:https://www.yanxishe.com/resourceDetail/1010?from=leiphonecolumn
EMNLP 2019 | 10篇論文實(shí)現(xiàn)代碼合集及下載
下載地址:https://www.yanxishe.com/resourceDetail/1013?from=leiphonecolumn
ICCV 1998-2017 年最佳論文合集NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1002?from=leiphonecolumn
NeurIPS 2019 GNN 論文合集
下載地址:https://www.yanxishe.com/resourceDetail/1006?from=leiphonecolumn
深度學(xué)習(xí)中記憶結(jié)構(gòu)的設(shè)計(jì)和使用論文集
下載地址:https://www.yanxishe.com/resourceDetail/1005?from=leiphonecolumn
AAAI (1996-2019)歷年最佳論文合集
下載地址:https://www.yanxishe.com/resourceDetail/991?from=leiphonecolumn
快來(lái)下載試試吧!
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。