0
本文作者: 楊曉凡 | 編輯:郭奕欣 | 2018-05-07 12:06 | 專題:ICLR 2018 |
雷鋒網(wǎng) AI 科技評論按:時間過得好快,Yann LeCun 仿佛剛剛在 Twitter 上感慨 ICLR 2018 的參會人數(shù)比 2017 年再次翻倍,而現(xiàn)在 ICLR 2018 已經(jīng)于加拿大當(dāng)?shù)貢r間 5 月 3 日結(jié)束了。
谷歌、DeepMind、Facebook、OpenAI、微軟,這 5 個雷鋒網(wǎng) AI 科技評論重點關(guān)注的科技公司在今年 ICLR 中共貢獻了 9 篇 oral(口頭報告)論文和 107 篇 poster(海報展示)論文,在會議接受論文總數(shù)的 23 篇 oral、314 篇 poster 中已經(jīng)占據(jù)了接近半壁江山。(谷歌、FB、微軟重點在于其中的人工智能研究機構(gòu):谷歌大腦/谷歌 AI,F(xiàn)acebook 人工智能研究院,微軟研究院)
每家機構(gòu)的數(shù)量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微軟 15 篇。谷歌和 DeepMind 加起來就占了會議總接收論文的 20%,可以說是具有絕對的影響力了。
我們翻閱了這 5 家機構(gòu)的共 116 篇 ICLR 2018 接受論文,嘗試梳理其中體現(xiàn)出的整個領(lǐng)域近期的研究內(nèi)容和研究風(fēng)格要點。需要說明的是,接受論文的結(jié)果是研究機構(gòu)的論文作者們和會議審稿人們共同決定的;另一方面我們翻閱的論文也只是全部 ICLR 2018 接受論文的一部分,所以依據(jù)這些論文做出的評判不一定全面。
我們發(fā)現(xiàn):
強化學(xué)習(xí)是今年一大研究熱點
不僅 DeepMind 依舊把強化學(xué)習(xí)作為重要研究對象,其它研究機構(gòu)也在強化學(xué)習(xí)方面有許多研究,以及把強化學(xué)習(xí)作為工具,研究其它領(lǐng)域的問題。這 106 篇論文中有 20 篇左右是關(guān)于強化學(xué)習(xí)的。去年火熱的 GANs 今年則熱度有所下降。
另一方面,與語言相關(guān)的論文也有 22 篇之多,涵蓋的內(nèi)容包括對語言演進的探索、弱監(jiān)督/無監(jiān)督翻譯、閱讀理解、問答等。
必不可少的是對各種現(xiàn)有方法的深度探究并做出改進
來自谷歌的 oral 論文《Boosting the Actor with Dual Critic》(https://openreview.net/pdf?id=BkUp6GZRW)基于大家熟悉的 actor-critic 模式算法繼續(xù)做出了改進;
同樣來自谷歌的《On the Convergence of Adam and Beyond》(https://openreview.net/forum?id=ryQu7f-RZ )比較了 Adam 等常用優(yōu)化算法,發(fā)現(xiàn)其中存在的問題并提出改進。這篇論文也獲得了今年的最佳論文獎。
《Sensitivity and Generalization in Neural Networks: An Empirical Study》(https://openreview.net/pdf?id=HJC2SzZCW ) 實際使用中人們發(fā)現(xiàn)大規(guī)模的、參數(shù)數(shù)目過多的網(wǎng)絡(luò)實際上比小規(guī)模的網(wǎng)絡(luò)有更好的泛化性,這似乎和我們對函數(shù)復(fù)雜度的經(jīng)典認(rèn)知相悖。這篇論文就探究了這個問題。
來自 Facebook 的《Residual Connections Encourage Iterative Inference》(https://arxiv.org/abs/1710.04773)分析+實證地研究了 ResNet 能夠帶來良好表現(xiàn)的原因,以及如何避免某些使用方式下會出現(xiàn)的過擬合問題。
除了針對深度學(xué)習(xí)領(lǐng)域本身的已有問題做深入發(fā)掘之外,有越來越多論文以深度學(xué)習(xí)為工具,研究和驗證人類學(xué)習(xí)、人類語言演進等方面的假說。
DeepMind 這篇 oral 論文《Emergence of linguistic communication from referential games with symbolic and pixel input》(https://openreview.net/pdf?id=HJGv1Z-AW ),在像素構(gòu)成的環(huán)境中訓(xùn)練強化學(xué)習(xí)智能體,用語言進化學(xué)的思路,以緊急狀況溝通任務(wù)為環(huán)境,研究算法交流模式的進化和學(xué)習(xí)。
同樣來自 DeepMind 的《Compositional obverter communication learning from raw visual input》(https://openreview.net/forum?id=Hk6WhagRW )和《Emergent communication through negotiation》(https://openreview.net/forum?id=Hk6WhagRW )兩篇也是類似地以深度學(xué)習(xí)方法研究人類語言的演進。
Facebook 也以另一種思路探究了智能體學(xué)習(xí)語言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》(https://arxiv.org/abs/1711.07950),他們提出了有趣的 Mechanical Turker Descent 的交互式學(xué)習(xí)方法,讓眾包參與實驗的人類在競爭和合作中訓(xùn)練智能體處理文字探險游戲中的自然語言內(nèi)容,交互式的學(xué)習(xí)也給智能體提供了動態(tài)變化的、符合它們當(dāng)前水平的訓(xùn)練數(shù)據(jù)。
另一篇來自 Facebook 的《Emergent Translation in Multi-Agent Communication》(https://arxiv.org/abs/1710.06922)研究的是當(dāng)下熱門的無平行語料的翻譯問題,他們的環(huán)境設(shè)置是讓兩個說不同語言的智能體玩挑圖游戲,在游戲過程中學(xué)習(xí)翻譯對方的語言。這種設(shè)置不僅和直接學(xué)習(xí)一個無監(jiān)督的翻譯器不同,而且還更像是在研究許多人都困惑已久的「兩個語言不通的人如何溝通」、「最早學(xué)習(xí)某種外語的人是如何學(xué)習(xí)的」這種問題。
邏輯、抽象概念學(xué)習(xí)也出現(xiàn)越來越多的成果
DeepMind 《SCAN: Learning hierarchical compositional visual concepts》(https://arxiv.org/abs/1707.03389 ),雷鋒網(wǎng) AI 科技評論做過解讀 DeepMind提出SCAN:僅需五對樣本,學(xué)會新的視覺概念!。
另一篇《Can neural networks understand logical entailment?》(https://openreview.net/forum?id=SkZxCk-0Z)針對模型捕捉、運用邏輯表達式的能力提出了新的模型和數(shù)據(jù)集
優(yōu)化方法仍在討論和快速進步
即便在大數(shù)據(jù)和計算能力已經(jīng)不是問題的今天,模型的優(yōu)化方法也仍然是很多研究者關(guān)心的課題,谷歌尤其在這方面有多篇論文。降低分布式訓(xùn)練的帶寬需求《Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training》(https://arxiv.org/abs/1712.01887)、Hinton 的分布式在線蒸餾《Large Scale Distributed Neural Network Training Through Online Distillation》(https://arxiv.org/abs/1804.03235,雷鋒網(wǎng) AI 科技評論解讀文章見這里)、學(xué)習(xí)率和批大小之間的關(guān)系如何《Don't Decay the Learning Rate, Increase the Batch Size》(https://arxiv.org/abs/1711.00489)、新提出的優(yōu)化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》(https://arxiv.org/abs/1712.03298),以及前文提到過的《On the Convergence of Adam and Beyond》,都展現(xiàn)了谷歌的研究人員們對這類問題的重視。
微軟的 oral 論文《On the insufficiency of existing momentum schemes for Stochastic Optimization》(https://arxiv.org/abs/1803.05591)探究了現(xiàn)有帶動量的隨機優(yōu)化算法的問題,《Training GANs with Optimism》(https://arxiv.org/abs/1711.00141)則為訓(xùn)練 Wasserstein GANs 帶來了新的方法。
實際上,百度也有一篇論文《Mixed Precision Training》(https://arxiv.org/abs/1710.03740)討論了在網(wǎng)絡(luò)訓(xùn)練中使用半精度浮點數(shù)而不是一般的單精度浮點數(shù),在縮減超大規(guī)模網(wǎng)絡(luò)所需存儲和計算需求的同時還保持足夠的網(wǎng)絡(luò)表現(xiàn)。
嘗試開拓深度學(xué)習(xí)的新領(lǐng)域
來自微軟的《Deep Complex Networks》(https://arxiv.org/abs/1705.09792)為復(fù)數(shù)值的深度神經(jīng)網(wǎng)絡(luò)提供了更多基礎(chǔ)組件,包括復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的復(fù)數(shù)批量標(biāo)準(zhǔn)化、復(fù)數(shù)權(quán)值初始化策略等。
來自谷歌的《Graph Attention Networks》(https://arxiv.org/abs/1710.10903)提出了運行在圖結(jié)構(gòu)的數(shù)據(jù)上的新的神經(jīng)網(wǎng)絡(luò)架構(gòu) GAT,它同時還具有掩蔽自我注意力層,以改善以往的基于圖卷積及其近似的模型的缺點。
另外值得一提的是,三篇 ICLR 2018 最佳論文中的《Spherical CNNs》(https://openreview.net/forum?id=Hkbd5xZRb)也是開拓新領(lǐng)域的精彩的嘗試。
有不少研究安全的論文,但方向較為集中
來自谷歌 Nicolas Papernot 等人的《Scalable Private Learning with PATE》繼續(xù)研究了深度學(xué)習(xí)中的隱私問題(https://openreview.net/pdf?id=rkZB1XbRZ ),實際上 Nicolas Papernot 去年就作為第一作者以《Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data》提出了 PATE 框架獲得了 ICLR 2017 的最佳論文獎,雷鋒網(wǎng) AI 科技評論也翻譯了獲獎演講,詳見 ICLR-17最佳論文作者Nicolas Papernot現(xiàn)場演講:如何用PATE框架有效保護隱私訓(xùn)練數(shù)據(jù)?
除此之外的研究安全性的論文基本都是對抗性樣本、超出原分布的樣本的檢測和防御。
各位讀者如果有認(rèn)為出彩的、值得注意的論文,也歡迎在評論區(qū)留言補充討論。今年 ICLR 2018 的會議投遞情況和最佳論文介紹還可以參見這里和這里。明年 ICLR 2019 我們不見不散。
谷歌論文列表:https://research.googleblog.com/2018/04/google-at-iclr-2018.html
DeepMind 論文列表:https://deepmind.com/blog/deepmind-papers-iclr-2018/
Facebook 論文列表:https://research.fb.com/facebook-research-at-iclr-2018/
OpenAI:https://twitter.com/OpenAI/status/989978665113993216
微軟論文檢索:https://www.microsoft.com/en-us/research/search/?q&content-type=publications&research_area=13556
雷鋒網(wǎng) AI 科技評論報道
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。
本專題其他文章