0
本文作者: 我在思考中 | 2022-07-04 15:16 |
最新 MLPerf 基準表明:AI 的訓練速度比去年提升了幾乎兩倍
6月29日,開放工程聯(lián)盟 MLCommons 發(fā)布了 MLPerf 基準的最新訓練結(jié)果,發(fā)現(xiàn)今年機器學習系統(tǒng)的訓練速度幾乎是去年的兩倍,超越了摩爾定律(每18-24個月翻一倍)。
MLPerf 由八個基準測試組成:圖像識別、醫(yī)學影像分割、兩個版本的對象檢測、語音識別、自然語言處理、推薦和強化學習。在這八個基準測試中,英偉達的加速器都拔得頭籌,表現(xiàn)優(yōu)異。
MLPerf Training v2.0 結(jié)果包括來自 21 個不同提交者的 250 多個性能結(jié)果,包括 Azure、百度、戴爾、富士通、技嘉、谷歌、Graphcore、HPE、浪潮、英特爾-HabanaLabs、聯(lián)想、Nettrix、NVIDIA、三星和 Supermicro等等。(IEEE Spectrum)
宋舒然獲得機器人頂會 RSS 2022 公布最佳論文獎
機器人頂會 RSS(Robotics: Science and Systems) 于 6 月 27 日至 7 月 1 日在紐約召開,并公布了最佳論文、最佳系統(tǒng)論文、最佳學生論文等全部獎項。
其中,目前任職于哥倫比亞大學的中國學者宋舒然與團隊獲得 RSS 2022 最佳論文獎,獲獎工作是“Iterative Residual Policy for Goal-Conditioned Manipulation of Deformable Objects”。宋舒然是機器人研究領域的知名青年學者,曾獲得多項會議最佳論文獎,并獲得2022年素有“諾貝爾風向標”之稱的斯隆研究獎。
此前,AI科技評論曾對宋舒然博士進行專訪,鏈接如下:
谷歌提出新的語言模型 Mineva 來解決定量推理問題
最近,谷歌研究院提出了一個能夠用逐步推理來解決數(shù)學和科學問題的語言模型——Mineva。
據(jù)團隊介紹,目前語言模型在定量推理問題(即結(jié)合數(shù)學和信息來解決現(xiàn)實世界問題)中的性能仍遠遠低于人類,而他們通過收集與定量推理問題相關的訓練數(shù)據(jù)、大規(guī)模訓練模型和采用先進的推理技術,實現(xiàn)了 AI 模型在定量推理任務上的顯著進步。
在技術架構上,Mineva基于谷歌在幾個月前提出的 PaLM 架構。訓練中,對 arXiv 上 118G 的科學論文數(shù)據(jù)集和包含 LaTex 數(shù)學表達的網(wǎng)頁進行了訓練。研究表明,Mineva在高中數(shù)學競賽水平題庫 MATH、大學水平的 STEM 任務上都取得了不錯的表現(xiàn)。
英國學者聯(lián)合發(fā)布因果機器學習百頁調(diào)查報告
最近,英國牛津大學與倫敦大學學院(UCL)的學者聯(lián)合發(fā)布了一份因果機器學習方向的調(diào)查綜述,長達165頁。因果機器學習主要研究如何將數(shù)據(jù)生成過程轉(zhuǎn)換為結(jié)構因果模型(SCM),可以讓人們推斷這一過程的變化(即干預)的影響,以及事后會發(fā)生的事情(即反事實)。
這篇綜述討論了因果機器學習的五大方向:因果監(jiān)督學習、因果生成建模、因果解釋、因果公平與因果強化學習。
消息鏈接:
https://spectrum.ieee.org/mlperf-rankings-2022
https://ai.googleblog.com/2022/06/minerva-solving-quantitative-reasoning.html
更多內(nèi)容,點擊下方關注:
雷峰網(wǎng)(公眾號:雷峰網(wǎng))
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。