丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習社-譯站
發(fā)送

0

AI專家們推薦的“必讀”論文 【Part 2】

本文作者: AI研習社-譯站 2020-12-03 10:52
導語:DeepMind高級研究員、MILA博士研究員、WinterLight Labs機器學習負責人……Ta們都在看什么論文?

譯者:AI研習社(季一帆

雙語原文鏈接:‘Must-Read’ AI Papers Suggested by Experts - Pt 2


AI專家們推薦的“必讀”論文 【Part 2】

我們之前寫了一篇文章,向大家推薦了一些AI必讀論文,引起很好的反響?,F(xiàn)在,我們推出了第二篇文章。這次推薦的論文依然是分量十足、誠意滿滿,各位推薦者都認為自己推薦的論文是AI人員必讀的經典之作,不知各位讀者怎么看。現(xiàn)在,我們來看看這次入選的是哪些論文吧!

不過在這之前,我還是向您推薦我們之前的那一篇文章,那篇文章也絕對值得一讀。


推薦人:MILA博士研究員,Alexia Jolicoeur-Martineau

推薦論文1:f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization (f-GAN: 使用變分散度最小化訓練生成神經采樣器)- Sebastian Nowozin et al.

https://arxiv.org/pdf/1711.04894.pdf

Alexia提出可以將若干分類器視為估計f散度,于是,GAN可以被解釋為最小化估計和散度。在論文中,Microsoft Research的研究人員詳細介紹了相關工作、論文方法和實驗驗證。閱讀原文獲取更多信息。

推薦論文2:Sobolev GAN - Youssef Mroueh et al.

https://arxiv.org/pdf/1711.04894.pdf 

本文將WGAN-GP中的梯度范數(shù)懲罰視為約束鑒別器,從而使其unit-ball具有梯度。論文的數(shù)學論證極其復雜,但我們只要記住,關鍵在于可以對鑒別器添加各種各樣的約束。這些限制條件可以防止鑒別器過分嚴格。論文中的Table1非常重要,我曾數(shù)次翻閱該論文,只為查看Table1,該表顯示了可用的各種不同約束。閱讀原文獲取更多信息。


推薦人:DeepMind高級研究員,Jane Wang

老實說,我并不會覺得有哪篇論文要比其他論文更重要,因為我認為所有論文都是相互依存的,而科學是協(xié)作的成果。但還是要說,就我個人而言,還是會更加偏愛一些論文的,從這些論文中我受益匪淺,但這并不是說其他論文不好。這只意味著,我個人比較喜歡以下兩篇論文。

推薦論文1:Where Do Rewards Come From? (獎勵從何而來?)- Satinder Singh et al.

https://all.cs.umass.edu/pubs/2009/singh_l_b_09.pdf 

本文提出了一種通用的獎勵計算框架,在給定適應度函數(shù)和環(huán)境分布的情況下,該框架給出了最優(yōu)獎勵函數(shù)的概念。實驗結果表明,在此最佳獎勵函數(shù)中,傳統(tǒng)的外在和內在行為概念均有體現(xiàn)。閱讀原文了解更多信息。

推薦論文2:Building machines that learn and think like people (讓機器向人類一樣學習與思考)- Brenden Lake et al

https://www.cambridge.org/core/journals/behavioral-and-brain-sciences/article/building-machines-that-learn-and-think-like-people/A9535B1D745A0377E16C590E14B94993 

本文回顧了認知科學的進展,表明要想實現(xiàn)真正像人類一樣學習和思考的機器,需要當前研究的創(chuàng)新性改進。具體來說,我們認為這樣的機器應具有以下能力:1)建立可解釋的、可理解的世界因果模型,而不僅僅是解決模式識別問題;2)在物理學和心理學層面進行學習,以支持和豐富機器所學知識;3)利用相關性以及學會學習使機器快速獲取知識,并擴展到新的任務和情況。閱讀原文了解更多信息。


推薦人:WinterLight Labs機器學習負責人,Jekaterina Novikova

推薦論文1:Attention Is All You Need (“笨蛋”,根本問題是注意力)- Ashish Vaswani et al.

https://arxiv.org/abs/1706.03762 

在NLP科學家于2017年提出"Attention is All You Need"之后,BERT或GPT-2 / 3等大型預訓練語言模型如雨后春筍般出現(xiàn)。這些模型令人稱奇的結果不僅引起了ML / NLP研究人員的強烈關注,在公眾中也引起波瀾。例如,2019年,OpenAI宣稱GPT-2“太過危險而不能公開”,這說法簡直讓人抓狂,但事實是,GPT-2確實能夠生成與真實新聞無法區(qū)分的假新聞。幾周前發(fā)布的GPT-3甚至被稱為“自比特幣以來最大的新聞”。閱讀原文了解更多信息。

推薦論文2:Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data (邁向NLU:關于數(shù)據時代的意義,形式和理解)- Emily M. Bender et al.

https://www.aclweb.org/anthology/2020.acl-main.463.pdf 

AI大熱,但我希望向你潑點冷水,冷靜下來好好看看2020年7月ACL會議的最佳主題論文-“邁向NLU:關于數(shù)據時代的意義,形式和理解”。作者認為,盡管現(xiàn)有模型(例如BERT或GPT)成果豐碩,但與人類相比,很難說它們是理解了語言及其含義。作者解釋道,理解是人們在交流中,根據所說話語明白對話意圖時發(fā)生的。這樣,如果僅僅是語言文字,沒有現(xiàn)實生活中的交互作用,則不可能學習和理解語言。換句話說,“從一定形式中是學習不到意義的”,這就是為什么即使巨大且復雜的語言模型也只是學習意義的“映射”,而不能了解意義本身。閱讀原文了解更多信息。


推薦人:加拿大國家銀行,AI科學首席顧問,Eric Charton

推薦論文1:The Computational Limits of Deep Learning (深度學習中的計算極限)- Johnson et al

https://arxiv.org/abs/2007.05558 

麻省理工學院和IBM Watson Lab發(fā)表的這篇論文對DL出版文獻進行匯總分析,介紹了DL模型訓練計算量的增加與其性能表現(xiàn)間的相關性。同時論文指出,隨著計算能力的提高,模型性能改善呈放緩趨勢。閱讀原文了解更多信息。

推薦論文2:Survey on deep learning with class imbalance(關于類別不平衡的DL綜述). Journal of Big Data, 6(1), 27.

https://link.springer.com/article/10.1186/s40537-019-0192-5 

該論文匯總介紹了不同DL算法是如何處理類別不平衡問題,該問題存在于信用建模、欺詐檢測或醫(yī)學檢測/癌癥檢測等各種工業(yè)應用中。論文對不同方法進行比較分析,并著重介紹了各種方法處理類別不平衡數(shù)據的差異,為進一步的研究指明方向,閱讀原文了解更多信息。


推薦人:NASA,機器學習主管,Anirudh Koul

也許幾年后回頭看,人們會發(fā)現(xiàn)2020年似乎是自我監(jiān)督元年。自監(jiān)督學習就是用非標注數(shù)據進行預訓練,然后在有限標注的下游任務進行微調。僅在2020年6月之前,眾多SOTA被先后打破,包括但不限于PIRL,SimCLR,InfoMin,MOCO,MOCOv2,BYOL,SwAV,SimCLRv2等眾多自監(jiān)督學習方法引起廣泛關注。通過以下這個例子來感受一下這些方法究竟多么讓人稱奇吧。僅僅使用不帶標簽的ImageNet,然后用1%的標簽進行微調,SimCLRv2模型就可以在ImageNet數(shù)據集上實現(xiàn)92.3%的Top-5準確性。很神奇吧,僅僅1%的標注就可以取得這樣令人滿意的結果。對于缺少標注數(shù)據的領域如醫(yī)學、衛(wèi)星等來說,自監(jiān)督學習就是這些領域應用的福音。

推薦論文:A Simple Framework for Contrastive Learning of Visual Representations (一個簡單的圖像表示對比學習框架)- Ting Chen et al

https://www.aclweb.org/anthology/2020.acl-main.463.pdf  

優(yōu)秀的論文不僅實驗嚴密、結果出色,而且還能簡介明了的向讀者清晰的表達自己的關鍵思想。SimCLR就是如此,簡潔明了,效果出色,這使其成為對比學習領域最值得閱讀論文之一。研究表明,在特定數(shù)據集中,通過數(shù)據增強策略獲得更好的圖像表示,對于對比學習至關重要。希望更多研究者關注到SimCLR,在X射線、MRI、音頻、衛(wèi)星圖等領域推動該方法進一步的研究與發(fā)展。


推薦人:摩根士丹利副總裁,NLP/ML研究員,Oana Frunza

Revealing the Dark Secrets of BERT (BERT探秘)- Olga Kovaleva et al.

https://arxiv.org/abs/1908.08593 

BERT Transformer結構極大推進了機器對文本數(shù)據的表示和理解能力,對于NLP的研究發(fā)展具有革命性的意義,可以說這就是NLP的“ImageNet”。Transformer架構的關鍵在于自我注意機制,“BERT揭秘”一文便對注意力的背后原理進行了探討。

更準確地說,這項研究量化了注意力頭捕獲的語言信息,包括句法和語義關系等。此外,論文還進一步研究了自我注意模式的多樣性及其對各種任務的影響。

該論文的研究聚焦于深層次理解強大的transformer架構,不僅利于推動該領域的進一步發(fā)展,而且有利于研究人員做出更明智的決策。也就是說,如果知道某些精簡的小型體系結構會產生相似的性能,這就意味著在架構設計和空間占用方面有了更好的選擇。

閱讀原文了解更多信息。


推薦人:捷豹路虎,高級數(shù)據科學家,Tamanna Haque

推薦書籍:Deep Learning with R (R語言深度學習)- Fran?ois Chollet et al.

本文從概念到實踐對深度學習進行詳細介紹,對于理解深度學習具有重要幫助。由于黑匣子性質,神經網絡不僅訓練成本高昂,而且不具可解釋性。同時,最近數(shù)據保護法規(guī)的更改將推動可解釋AI的研究,神經網絡受到挑戰(zhàn)。

盡管如此,在某些商業(yè)應用中,只有神經網絡才能有效地完成工作,因此掌握神經網絡技術依然至關重要。在我使用R語言進行一年左右的深度學習研究與實踐中,本書是我的良師益友,指導我熟練地使用神經網絡并完成圖像識別項目。


推薦人:伯克利數(shù)據科學學院,首席ML科學家兼ML/AI負責人,Mike Tamir

推薦論文1:Right for the Wrong Reasons: Diagnosing Syntactic Heuristics in Natural Language Inference(錯誤的真正原因:自然語言推理中的啟發(fā)式句法診斷)

我推薦的第一篇論文是MaCoy,Pavlick和Linzen的“錯誤的真正原因:自然語言推理中的啟發(fā)式句法診斷”,論文表明transformer架構顯著推動了自然語言推理等NLU任務的進步。在技術研究之外,“錯誤的真正原因”強調了基于當前數(shù)據集的系統(tǒng)缺陷,這在NLU任務中是致命漏洞。本論文將提醒AI從業(yè)者和研究人員保持清醒與理智。閱讀原文了解更多信息。

推薦論文2:Emergence of Invariance and Disentanglement in Deep Representations(深度表示中的不變和解耦)

我推薦的第二篇論文是關于DL信息瓶頸分析的,也就是Achille和Soatto的研究成果“深度表示中的不變和解耦”,閱讀博客了解詳細信息。


推薦人:蒙特利爾AI倫理研究所,創(chuàng)始人,Abhishek Gupta

https://montrealethics.ai/the-state-of-ai-ethics-report-june-2020/  

推薦論文The State of AI Ethics ReportAI倫理道德報告)

在蒙特利爾AI倫理研究所,我們一直在關注一些最具影響力的論文,這些論文不僅關注AI倫理的常見問題,而且基于經驗科學并能指導實踐。為此,我們將過去一個季度的工作整理成《 AI倫理道德報告,2020年6月》,用于指導該領域的研究人員和從業(yè)人員在實踐過程中遵守AI倫理責任。該報告的內容包括但不限于,NLP模型中對殘疾人的社會偏見,YouTube反饋回路的潛在缺陷,AI治理,即在AI中實施道德規(guī)范的整體方法以及對抗性機器學習-行業(yè)觀點。閱讀原文了解更多信息。


AI系統(tǒng)與策略實驗室,首席AI科學家,Jack Brzezinski

推薦論文:The Discipline of Machine Learning(機器學習學科建設)

http://www.cs.cmu.edu/~tom/pubs/MachineLearning.pdf  

本文簡要介紹了機器學習學科建設綱要,機器學習要解決的基本問題和與其他科學和社會的關系,以及進一步的發(fā)展方向。閱讀原文了解更多信息。


AIRAmed,機器學習工程師,Diego Fioravanti

推薦論文:Overfitting(過擬合)

https://en.m.wikipedia.org/wiki/Overfitting

Diego認為AI人員要對“過擬合”有清晰完整的了解。本文涉及內容涵蓋統(tǒng)計推斷,回歸等。閱讀原文了解更多內容。


AI研習社是AI學術青年和AI開發(fā)者技術交流的在線社區(qū)。我們與高校、學術機構和產業(yè)界合作,通過提供學習、實戰(zhàn)和求職服務,為AI學術青年和開發(fā)者的交流互助和職業(yè)發(fā)展打造一站式平臺,致力成為中國最大的科技創(chuàng)新人才聚集地。

如果,你也是位熱愛分享的AI愛好者。歡迎與譯站一起,學習新知,分享成長。

AI專家們推薦的“必讀”論文 【Part 2】

雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

AI專家們推薦的“必讀”論文 【Part 2】

分享:
相關文章

知情人士

AI研習社(yanxishe.com)譯站頻道,傳播前沿人工智能知識,讓語言不再成為學習知識的門檻。(原雷鋒字幕組)
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說