0
雷鋒網(wǎng) AI 科技評論按,2018 年已到尾聲,今年 AI 領(lǐng)域也取得了很多精彩的突破。人們對 AI 的大肆宣揚(yáng)和恐慌逐漸冷卻,更多地關(guān)注到具體的問題中。和往年不一樣的是,今年深度學(xué)習(xí)在很多非計(jì)算機(jī)視覺領(lǐng)域也取得了突破,尤其是在 NLP 領(lǐng)域。同時(shí),今年在框架上的競爭大大升溫,F(xiàn)acebook 發(fā)布的 Pytorch 1.0 勢頭強(qiáng)勁,直逼 Google 的 Tensor Flow,微軟也發(fā)布了 TextWorld 。按照慣例,Curai 的聯(lián)合創(chuàng)始人兼 CTO Xavier Amatriain 發(fā)布了一篇年度總結(jié),雷鋒網(wǎng) AI 科技評論編譯整理如下:
對我來說,在每年的這個(gè)時(shí)候總結(jié) ML 的進(jìn)展已經(jīng)成為一種傳統(tǒng)(例如,我去年就在 Quora 上回答過這個(gè)問題)。一如既往,這個(gè)總結(jié)必然會偏向于我自己感興趣的領(lǐng)域。
如果要我把 2018 年機(jī)器學(xué)習(xí)進(jìn)展的主要亮點(diǎn)總結(jié)成幾個(gè)標(biāo)題,那就是:
對 AI 的大肆宣揚(yáng)和恐慌逐漸冷卻;
更多地關(guān)注具體問題,如公平性、可解釋性或因果性;
深度學(xué)習(xí)的研究將繼續(xù),并且在實(shí)踐中不僅僅可以用來對圖像分類(特別是對 NLP 也非常有用);
AI 框架方面的競爭正在升溫,如果你不想默默無聞,你最好發(fā)布一些自己的框架。
讓我們來看看具體是怎么樣的。
如果說 2017 年對人工智能的大肆宣揚(yáng)和恐慌都達(dá)到了極點(diǎn),那么 2018 年似乎就是我們開始冷靜下來的一年。雖然有些人一直在散布他們對于人工智能的恐懼情緒,但與此同時(shí),媒體和其他人似乎已經(jīng)同意這樣的觀點(diǎn),即雖然自動駕駛和類似的技術(shù)正在向我們走來,但它們不會在明天發(fā)生。盡管如此,仍然有聲音認(rèn)為我們應(yīng)該規(guī)范人工智能,而不是集中于控制其結(jié)果。
不過,很高興地看到,今年的人們關(guān)注的重點(diǎn)似乎已經(jīng)轉(zhuǎn)移到了可以處理的更具體的問題上。例如,關(guān)于公平性的討論很多,而且關(guān)于這個(gè)話題的會議不止 1 次(例如 FATML 和 ACM FAT),甚至還有一些在線課程也是關(guān)于這個(gè)話題的,比如 Google 教人們認(rèn)識機(jī)器學(xué)習(xí)中的公平性的課程。
順著這條思路,今年已經(jīng)深入討論的其他問題有可解釋性、解釋性和因果性。因果關(guān)系似乎回到了聚光燈下,這源于 Judea Pearl 的《The Book of Why》的出版。作者不僅決定寫他的第一本「普通人能夠讀懂」的書,而且他還利用 Twitter 來推廣關(guān)于因果關(guān)系的討論。事實(shí)上,甚至大眾媒體都認(rèn)為這是對現(xiàn)有 AI 方法的「挑戰(zhàn)」(例如,你可以看看《機(jī)器學(xué)習(xí)的先驅(qū)如何成為最尖銳的批評者之一》這篇文章。實(shí)際上,甚至 ACM Recsys 大會上的最佳論文獎(jiǎng)也授予了一篇相關(guān)論文,該論文討論了如何嵌入因果關(guān)系的問題(參見《Causal Embeddings for Recommendations》)。盡管如此,許多作家認(rèn)為因果關(guān)系在某種程度上只是一種理論,我們應(yīng)該關(guān)注更具體的問題。
Judea Pearl 的書
作為最通用的 AI 范例,深度學(xué)習(xí)仍然存在很多問題,很顯然,深度學(xué)習(xí)不會止步于當(dāng)前,就它所能提供的東西而言,它還遠(yuǎn)遠(yuǎn)沒有達(dá)到高峰。更具體地說,今年深度學(xué)習(xí)方法在從語言到醫(yī)療保健等不同于計(jì)算機(jī)視覺的領(lǐng)域取得了前所未有的成功。
事實(shí)上,今年深度學(xué)習(xí)最有趣的進(jìn)展可能出現(xiàn)在 NLP 領(lǐng)域。如果要我選出今年最令人印象深刻的 AI 應(yīng)用程序,它們都將是 NLP 應(yīng)用程序(并且都來自于 Google)。第一個(gè)是 Google 發(fā)布的超級有用的 smart compose,第二個(gè)是他們的 Duplex 對話系統(tǒng)。
使用語言模型的想法加速了這些進(jìn)步,這種想法在今年 Fast.ai 的 UMLFit 課程里面普及。隨后我們看到了其他改進(jìn)的方法,比如 Allen 的 ELMO,Open AI's transformers,或最近擊敗了很多 SOTA 的 Google 的 BERT。這些模型被描述為「Imagenet moment for NLP」,因?yàn)樗鼈兲峁┝穗S時(shí)可用的預(yù)訓(xùn)練好的通用的模型,這些模型還可以針對特定任務(wù)進(jìn)行微調(diào)。除了語言模型之外,還有許多其他有趣的進(jìn)步,比如 Facebook 的多語言嵌入。值得注意的是,我們還看到這些和其他方法被集成到更通用的 NLP 框架(比如 AllenNLP 或 Zalando) 的 FLAIR 中的速度非??臁?/p>
說到框架,今年的「人工智能框架之戰(zhàn)」已經(jīng)升溫。令人驚訝的是,Pytorch 1.0 發(fā)布之初,它就似乎正在趕上 TensorFlow。雖然在生產(chǎn)中 PyTorch 的使用情況仍然不太理想,但它在可用性、文檔和教育方面的進(jìn)展速度似乎比 TensorFlow 要快。有趣的是,選擇 Pytorch 作為實(shí)現(xiàn) Fast.ai 庫的框架可能起到了很大的作用。也就是說,Google 意識到了這一切,并且在框架中把 Keras 作為高級模塊。最終,我們都能夠接觸到這些偉大的資源,并從中受益。
pytorch 與 tensorflow 搜索趨勢
有趣的是,另一個(gè)在框架方面看到許多有趣的進(jìn)展的領(lǐng)域是增強(qiáng)學(xué)習(xí)。雖然我不認(rèn)為 RL 的研究進(jìn)展與前幾年一樣令人印象深刻(只有最近 DeepMind 的 Impala 浮現(xiàn)在腦海中),但是令人驚訝的是,在一年之內(nèi),我們看到了所有主要的 AI 玩家都發(fā)布了 RL 框架。Google 發(fā)布了用于研究的 Dopamine 框架,而 Deepmind(隸屬于 Google)發(fā)布了有一定競爭力的 TRFL 框架。Facebook 不甘落后,發(fā)布了 Horizon,微軟也發(fā)布了 TextWorld,而 TextWorld 在基于文本的訓(xùn)練上更加專業(yè)。希望所有這些開源框架在能夠讓我們在 2019 年看到 RL 的進(jìn)步。
我很高興看到最近 Google 在 Tensor Flow 上發(fā)布了 TFRank。Ranking 是一個(gè)非常重要的 ML 應(yīng)用程序,它可能應(yīng)該得到更多的重視。
在數(shù)據(jù)改善領(lǐng)域,也有非常有趣的進(jìn)展。例如,今年 Google 發(fā)布了 auto-augment,這是一種深度增強(qiáng)學(xué)習(xí)方法,用于自動增強(qiáng)訓(xùn)練數(shù)據(jù)。一個(gè)更極端的想法是用合成數(shù)據(jù)訓(xùn)練 DL 模型。這種想法已經(jīng)被在實(shí)踐中嘗試了一段時(shí)間,并且被許多人視為 AI 未來的關(guān)鍵所在。NVidia 在他們的論文《Training Deep Learning with Synthetic Data》中提出了新穎的想法。在我們「Learning from the Experts」這篇文章中,我們還展示了如何使用專家系統(tǒng)生成合成數(shù)據(jù),這些合成數(shù)據(jù)即使在與真實(shí)數(shù)據(jù)結(jié)合之后也能用于訓(xùn)練 DL 系統(tǒng)。
至于人工智能領(lǐng)域的更多基本突破,可能由于我個(gè)人偏好的原因,并沒有看到太多。我不完全同意 Hinton 的說法,他認(rèn)為這個(gè)領(lǐng)域缺乏創(chuàng)新性是由于這個(gè)領(lǐng)域有「幾個(gè)老家伙和一大堆年輕人」,盡管科學(xué)界有一種趨勢,那就是在研究者會在晚年取得突破性進(jìn)展。在我看來,當(dāng)前缺乏突破的主要原因是,現(xiàn)有方法和它們的變體仍然有許多有趣的實(shí)際應(yīng)用,因此很難冒險(xiǎn)采用可能并不實(shí)用的方法。更重要的是,這個(gè)領(lǐng)域的大部分研究都是由大公司贊助的。有一篇有趣的論文《An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling》,雖然它高度依賴過去的經(jīng)驗(yàn),并且使用了已知的方法,但是它打開了發(fā)現(xiàn)新方法的大門,因?yàn)樗C明了通常被認(rèn)為是最優(yōu)的方法實(shí)際上并不是最優(yōu)的。顯然,我不同意 Bored Yann LeCun 的觀點(diǎn),他認(rèn)為卷積網(wǎng)絡(luò)是最終的「主算法」,而 RNN 不是。即便是在序列建模領(lǐng)域,研究空間也很大!另一篇值得研究的論文是最近 NeurIPS 最佳論文「Neural Ordinary Differential Equations」,它挑戰(zhàn)了 DL 中的一些基本問題,包括層本身的概念。
雷鋒網(wǎng)
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。