2
本文作者: AI科技評論 | 2017-12-19 16:12 |
2017年12月3-9日,第31屆神經(jīng)信息處理系統(tǒng)大會在美國加州長灘市舉行。NIPS(Conference and Workshop on Neural Information Processing Systems)始于1987年,最初是定位為研究探索生物和人工神經(jīng)網(wǎng)絡(luò)的互補性開放跨學(xué)科會議。隨著近年來尤其是2012年之后的機器學(xué)習(xí)的逐步興起,NIPS的關(guān)注度與日俱增,成為了人工智能領(lǐng)域參與人數(shù)最多的學(xué)術(shù)會議之一。今年的NIPS可謂火爆異常,有超過8000人注冊參會,投遞論文數(shù)量3240篇,收錄678篇,錄用率20.9%。而今年NIPS的門票也在開放注冊一小時內(nèi)售罄,有許多希望感受大會氣氛的同學(xué)也因此未能前往現(xiàn)場。
在上個星期的大會期間,雷鋒網(wǎng)為大家進行了大會現(xiàn)場的報道,關(guān)于大會的更多干貨內(nèi)容,我們也將陸續(xù)進行后續(xù)整理放出。近日雷鋒網(wǎng)發(fā)現(xiàn),布朗大學(xué)三年級博士生David Abel將自己在NIPS 2017上旁聽的所有演講及有價值的論文等全部整理成了一份43頁的PDF文件,并鼓勵大家進行傳播分享。盡管David無法參加大會所有議程,但在PDF中我們?nèi)匀荒芸吹讲簧儆袃r值的總結(jié)。
關(guān)于這份PDF中的部分重點內(nèi)容雷鋒網(wǎng)摘錄如下:
Ali Rahimi“時間檢驗獎”獲獎演講。雷鋒網(wǎng)在此前有詳細報道(參見雷鋒網(wǎng)文章《NIPS 2017 “時間檢驗獎”獲獎感人演講:從“煉金術(shù)”到“電力”的機器學(xué)習(xí)》)。在演講中Rahimi回顧了其十年前頂著“學(xué)術(shù)警察”對于機器學(xué)習(xí)這門新學(xué)科的質(zhì)疑前進的過程,并將機器學(xué)習(xí)比喻為(早期的)“煉金術(shù)”,提出經(jīng)過十年的發(fā)展,機器學(xué)習(xí)需要從野蠻生長到建立一個完整的體系的過程,并號召大家去為機器學(xué)習(xí)的理論框架添磚加瓦。值得一提的是,Ali關(guān)于機器學(xué)習(xí)與煉金術(shù)的比喻也引發(fā)了一番爭議,參見《“深度學(xué)習(xí)才不是煉金術(shù)”,Yann LeCun為這個和NIPS獲獎?wù)撐淖髡咂饋砹?/a>》
(Ali Rahimi演講中)
Joelle Pineau關(guān)于Deep RL重現(xiàn)性的演講(12月5日,D1房間Demostration)。Joelle Pineau是McGill大學(xué)副教授,其演講的中心思想是,假設(shè)有兩種不同算法(我們稱之為A和B),這兩種算法可能根據(jù)所選擇的隨機種子點在完全相同的任務(wù)上取得不同的效果。換言之,如果算法A與某個隨機種子點在統(tǒng)計學(xué)上顯著優(yōu)于B算法,而隨著選擇不同的隨機種子點,在下一輪中可能算法B會占據(jù)優(yōu)勢。這項研究很有意思,因為在深度RL中,大多數(shù)結(jié)果的形式是:“我們的算法在任務(wù)X和Y上做得更好”,而Joelle的研究則揭示了這種“更好”的另一面。關(guān)于這一現(xiàn)象雷鋒網(wǎng)此前也有討論,參見:《用深度學(xué)習(xí)每次得到的結(jié)果都不一樣,怎么辦?》
Josh Tenenbaum就人類行為的逆向工程智能的Tutorial 分享(12月4日,Hall C,當時雷鋒網(wǎng)正在關(guān)注同期進行的Lecun參加的另一個Tutorial)。Josh Tenenbaum是計算認知科學(xué)領(lǐng)域的大牛,在本次NIPS大會上,其指導(dǎo)的學(xué)生有多篇論文發(fā)表。Josh介紹了對直覺(Common sense)的逆向工程的相關(guān)研究,以及利用概率程序為工具,產(chǎn)生世界的下一個狀態(tài)作為一個近似的“頭腦中的游戲引擎”的模型。 這一直觀的物理學(xué)和心理學(xué)的跨界研究對人工智能如何更好模擬人類行為有著指導(dǎo)性的意義。關(guān)于計算認知科學(xué)的具體應(yīng)用,參見我們此前對Josh Tenenbaum的博士后趙一彪創(chuàng)辦的iSee.ai的相關(guān)報道:《The Engine公布第一批“改變世界”的被投公司名單 iSee.ai名列其中》
Kate Crawford的Keynote演講:《The Trouble with Bias》(12月5日,Hall A)。Kate是紐約大學(xué)教授和微軟紐約研究中心的首席研究員,也是本次大會的顏值擔(dān)當(本次NIPS上雷鋒網(wǎng)編輯就遇到了Kate的迷妹要趕去聽Kate的演講和合影)。在演講中,Kate講述機器學(xué)習(xí)了在高風(fēng)險決策中存在偏差的原因及在醫(yī)療保健、刑事司法、教育等核心社會機構(gòu)中的應(yīng)用,并提出解決這種偏差的新策略。
(Kate Crowford演講中)
除此之外,該份筆記還對大會每一天的亮點內(nèi)容進行了總結(jié),以及對十余篇論文現(xiàn)場講解的筆記。更多精彩內(nèi)容,可關(guān)注雷鋒網(wǎng)AI科技評論微信公眾號(aitechtalk)回復(fù)“NIPS 2017筆記 ”獲取下載鏈接。
此外,為便于更好對照學(xué)習(xí),雷鋒網(wǎng)也將這份筆記中提到的演講、論文打包,包括下列20個PDF:
1. Josh Tanenbaum NIPS 2017 Tutorial Slide
2. Safe and Nested Subgame Solving for Imperfect-Information Games
3. Fast Rates for Bandit Optimization with Upper-Confidence Frank-Wolfe
4. Diving into the shallows: a computational perspective on large-scale shallow learning
5. Monte-Carlo Tree Search by Best Arm Identification
6. Deep Mean-Shift Priors for Image Restoration
7. Deep Voice 2: Multi-Speaker Neural Text-to-Speech
8. Graph Matching via Multiplicative Update Algorithm
9. Dynamic Routing Between Capsules
10. Pieter Abbeel NIPS 2017演講Slide
11. ELF: An Extensive, Lightweight and Flexible Research Platform for Real-time Strategy Games
12. Imagination-Augmented Agents for Deep Reinforcement Learning
13. A simple neural network module for relational reasoning
14. Scalable trustregion method for deep reinforcement learning using kronecker-factored approximation
15. Off-policy evaluation for slate recommendation
16. Robust and efficient transfer learning with hidden parameter markov decision processes
17. Inverse reward design
18. Dynamic safe interruptibility for decentralized multi-agent reinforcement learning
19. Repeated inverse reinforcement learning
20. Learning with options that terminate off-policy
加入雷鋒網(wǎng)會員或付費即可下載。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。