丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

0

五大頂尖企業(yè)研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

本文作者: 楊曉凡 編輯:郭奕欣 2018-05-07 12:06 專題:ICLR 2018
導(dǎo)語:有何研究趨勢,有何亮眼論文

五大頂尖企業(yè)研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

雷鋒網(wǎng) AI 科技評論按:時間過得好快,Yann LeCun 仿佛剛剛在 Twitter 上感慨 ICLR 2018 的參會人數(shù)比 2017 年再次翻倍,而現(xiàn)在 ICLR 2018 已經(jīng)于加拿大當(dāng)?shù)貢r間 5 月 3 日結(jié)束了。

谷歌、DeepMind、Facebook、OpenAI、微軟,這 5 個雷鋒網(wǎng) AI 科技評論重點關(guān)注的科技公司在今年 ICLR 中共貢獻了 9 篇 oral(口頭報告)論文和 107 篇 poster(海報展示)論文,在會議接受論文總數(shù)的 23 篇 oral、314 篇 poster 中已經(jīng)占據(jù)了接近半壁江山。(谷歌、FB、微軟重點在于其中的人工智能研究機構(gòu):谷歌大腦/谷歌 AI,F(xiàn)acebook 人工智能研究院,微軟研究院)

每家機構(gòu)的數(shù)量方面,DeepMind 22 篇、谷歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微軟 15 篇。谷歌和 DeepMind 加起來就占了會議總接收論文的 20%,可以說是具有絕對的影響力了。

我們翻閱了這 5 家機構(gòu)的共 116 篇 ICLR 2018 接受論文,嘗試梳理其中體現(xiàn)出的整個領(lǐng)域近期的研究內(nèi)容和研究風(fēng)格要點。需要說明的是,接受論文的結(jié)果是研究機構(gòu)的論文作者們和會議審稿人們共同決定的;另一方面我們翻閱的論文也只是全部 ICLR 2018 接受論文的一部分,所以依據(jù)這些論文做出的評判不一定全面。

我們發(fā)現(xiàn):

強化學(xué)習(xí)是今年一大研究熱點

  • 不僅 DeepMind 依舊把強化學(xué)習(xí)作為重要研究對象,其它研究機構(gòu)也在強化學(xué)習(xí)方面有許多研究,以及把強化學(xué)習(xí)作為工具,研究其它領(lǐng)域的問題。這 106 篇論文中有 20 篇左右是關(guān)于強化學(xué)習(xí)的。去年火熱的 GANs 今年則熱度有所下降。

  • 另一方面,與語言相關(guān)的論文也有 22 篇之多,涵蓋的內(nèi)容包括對語言演進的探索、弱監(jiān)督/無監(jiān)督翻譯、閱讀理解、問答等。

必不可少的是對各種現(xiàn)有方法的深度探究并做出改進

  • 來自谷歌的 oral 論文《Boosting the Actor with Dual Critic》(https://openreview.net/pdf?id=BkUp6GZRW)基于大家熟悉的 actor-critic 模式算法繼續(xù)做出了改進;

  • 同樣來自谷歌的《On the Convergence of Adam and Beyond》(https://openreview.net/forum?id=ryQu7f-RZ )比較了 Adam 等常用優(yōu)化算法,發(fā)現(xiàn)其中存在的問題并提出改進。這篇論文也獲得了今年的最佳論文獎。

  • 《Sensitivity and Generalization in Neural Networks: An Empirical Study》(https://openreview.net/pdf?id=HJC2SzZCW ) 實際使用中人們發(fā)現(xiàn)大規(guī)模的、參數(shù)數(shù)目過多的網(wǎng)絡(luò)實際上比小規(guī)模的網(wǎng)絡(luò)有更好的泛化性,這似乎和我們對函數(shù)復(fù)雜度的經(jīng)典認(rèn)知相悖。這篇論文就探究了這個問題。

  • 來自 Facebook 的《Residual Connections Encourage Iterative Inference》(https://arxiv.org/abs/1710.04773)分析+實證地研究了 ResNet 能夠帶來良好表現(xiàn)的原因,以及如何避免某些使用方式下會出現(xiàn)的過擬合問題。

除了針對深度學(xué)習(xí)領(lǐng)域本身的已有問題做深入發(fā)掘之外,有越來越多論文以深度學(xué)習(xí)為工具,研究和驗證人類學(xué)習(xí)、人類語言演進等方面的假說。

  • DeepMind 這篇 oral 論文《Emergence of linguistic communication from referential games with symbolic and pixel input》(https://openreview.net/pdf?id=HJGv1Z-AW ),在像素構(gòu)成的環(huán)境中訓(xùn)練強化學(xué)習(xí)智能體,用語言進化學(xué)的思路,以緊急狀況溝通任務(wù)為環(huán)境,研究算法交流模式的進化和學(xué)習(xí)。

  • 同樣來自 DeepMind 的《Compositional obverter communication learning from raw visual input》(https://openreview.net/forum?id=Hk6WhagRW  )和《Emergent communication through negotiation》(https://openreview.net/forum?id=Hk6WhagRW  )兩篇也是類似地以深度學(xué)習(xí)方法研究人類語言的演進。

  • Facebook 也以另一種思路探究了智能體學(xué)習(xí)語言的方式,在《Mastering the Dungeon: Grounded Language Learning by Mechanical Turker Descent》(https://arxiv.org/abs/1711.07950),他們提出了有趣的 Mechanical Turker Descent 的交互式學(xué)習(xí)方法,讓眾包參與實驗的人類在競爭和合作中訓(xùn)練智能體處理文字探險游戲中的自然語言內(nèi)容,交互式的學(xué)習(xí)也給智能體提供了動態(tài)變化的、符合它們當(dāng)前水平的訓(xùn)練數(shù)據(jù)。

  • 另一篇來自 Facebook 的《Emergent Translation in Multi-Agent Communication》(https://arxiv.org/abs/1710.06922)研究的是當(dāng)下熱門的無平行語料的翻譯問題,他們的環(huán)境設(shè)置是讓兩個說不同語言的智能體玩挑圖游戲,在游戲過程中學(xué)習(xí)翻譯對方的語言。這種設(shè)置不僅和直接學(xué)習(xí)一個無監(jiān)督的翻譯器不同,而且還更像是在研究許多人都困惑已久的「兩個語言不通的人如何溝通」、「最早學(xué)習(xí)某種外語的人是如何學(xué)習(xí)的」這種問題。

邏輯、抽象概念學(xué)習(xí)也出現(xiàn)越來越多的成果

優(yōu)化方法仍在討論和快速進步

  • 即便在大數(shù)據(jù)和計算能力已經(jīng)不是問題的今天,模型的優(yōu)化方法也仍然是很多研究者關(guān)心的課題,谷歌尤其在這方面有多篇論文。降低分布式訓(xùn)練的帶寬需求《Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training》(https://arxiv.org/abs/1712.01887)、Hinton 的分布式在線蒸餾《Large Scale Distributed Neural Network Training Through Online Distillation》(https://arxiv.org/abs/1804.03235,雷鋒網(wǎng) AI 科技評論解讀文章見這里)、學(xué)習(xí)率和批大小之間的關(guān)系如何《Don't Decay the Learning Rate, Increase the Batch Size》(https://arxiv.org/abs/1711.00489)、新提出的優(yōu)化算法《Neumann Optimizer: A Practical Optimization Algorithm for Deep Neural Networks》(https://arxiv.org/abs/1712.03298),以及前文提到過的《On the Convergence of Adam and Beyond》,都展現(xiàn)了谷歌的研究人員們對這類問題的重視。

  • 微軟的 oral 論文《On the insufficiency of existing momentum schemes for Stochastic Optimization》(https://arxiv.org/abs/1803.05591)探究了現(xiàn)有帶動量的隨機優(yōu)化算法的問題,《Training GANs with Optimism》(https://arxiv.org/abs/1711.00141)則為訓(xùn)練 Wasserstein GANs 帶來了新的方法。

  • 實際上,百度也有一篇論文《Mixed Precision Training》(https://arxiv.org/abs/1710.03740)討論了在網(wǎng)絡(luò)訓(xùn)練中使用半精度浮點數(shù)而不是一般的單精度浮點數(shù),在縮減超大規(guī)模網(wǎng)絡(luò)所需存儲和計算需求的同時還保持足夠的網(wǎng)絡(luò)表現(xiàn)。

嘗試開拓深度學(xué)習(xí)的新領(lǐng)域

  • 來自微軟的《Deep Complex Networks》(https://arxiv.org/abs/1705.09792)為復(fù)數(shù)值的深度神經(jīng)網(wǎng)絡(luò)提供了更多基礎(chǔ)組件,包括復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)的復(fù)數(shù)批量標(biāo)準(zhǔn)化、復(fù)數(shù)權(quán)值初始化策略等。

  • 來自谷歌的《Graph Attention Networks》(https://arxiv.org/abs/1710.10903)提出了運行在圖結(jié)構(gòu)的數(shù)據(jù)上的新的神經(jīng)網(wǎng)絡(luò)架構(gòu) GAT,它同時還具有掩蔽自我注意力層,以改善以往的基于圖卷積及其近似的模型的缺點。

  • 另外值得一提的是,三篇 ICLR 2018 最佳論文中的《Spherical CNNs》(https://openreview.net/forum?id=Hkbd5xZRb)也是開拓新領(lǐng)域的精彩的嘗試。

有不少研究安全的論文,但方向較為集中

各位讀者如果有認(rèn)為出彩的、值得注意的論文,也歡迎在評論區(qū)留言補充討論。今年 ICLR 2018 的會議投遞情況和最佳論文介紹還可以參見這里這里。明年 ICLR 2019 我們不見不散。

谷歌論文列表:https://research.googleblog.com/2018/04/google-at-iclr-2018.html

DeepMind 論文列表:https://deepmind.com/blog/deepmind-papers-iclr-2018/ 

Facebook 論文列表:https://research.fb.com/facebook-research-at-iclr-2018/

OpenAI:https://twitter.com/OpenAI/status/989978665113993216

微軟論文檢索:https://www.microsoft.com/en-us/research/search/?q&content-type=publications&research_area=13556

雷鋒網(wǎng) AI 科技評論報道

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

五大頂尖企業(yè)研究院的116篇論文ICLR2018錄用論文,七大趨勢全解讀

分享:
相關(guān)文章

讀論文為生

日常笑點滴,學(xué)術(shù)死腦筋
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說