0
本文作者: 亞萌 | 2016-11-27 21:43 |
美國時間 11 月 22 日,亞馬遜 CTO Werner Vogels 在博文中寫到 MXNet 被 AWS 正式選擇成為其云計算的官方深度學習平臺。
MXNet 是一個全功能、靈活且高擴展性的深度學習框架,支持深度學習模型中的卷積神經網絡和長期短期記憶網絡。由學術界發(fā)起,由華盛頓大學和卡內基梅隆大學的研究人員聯(lián)合發(fā)起。
MXNet 聯(lián)合發(fā)起人解浚源表示:
“MXNet 發(fā)展到現在有一年多時間,是一個相對成熟的項目。我對我們的技術很有信心。MXNet 的速度,節(jié)省內存,接口靈活性,和分布式效率都是可圈可點的。作為一個由愛好者發(fā)起,沒有投資的項目,MXNet 以前最大的短板是文檔和宣傳。而 Amazon 作為大財主以后在這方面可以起到很好的作用?!?/p>
LeCun 在卡內基梅隆大學機器人研究所進行了一場 AI 技術核心問題與發(fā)展前景的演講。他在演講中提到三點干貨:
1. 無監(jiān)督學習代表了 AI 技術的未來。
2. 當前 AI 應用的熱點集中在卷積神經網絡。
3. 用模擬器提高無監(jiān)督學習的效率是大勢所趨。
如今的深度學習系統(tǒng)現在用的都是監(jiān)督學習(supervised learning),輸入的數據被人為加上標簽。接下來的挑戰(zhàn)在于,怎么讓機器從未經處理的、無標簽無類別的數據中進行學習,比方說視頻和文字。而這就是無監(jiān)督學習(unsupervised learning)。
Yann LeCun 做了一個比喻:假設機器學習是一個蛋糕,強化學習是蛋糕上的一粒櫻桃,監(jiān)督學習是外面的一層糖衣,無監(jiān)督學習則是蛋糕糕體。無監(jiān)督學習的重要性不言而喻。為了讓強化學習奏效,也離不開無監(jiān)督學習的支持。
Yann LeCun 表示,神經網絡越大,效果就越好(當然前提是數據庫大小達到了臨界值)。至于為什么會這樣,目前仍是一個謎,相關理論研究正在開展。他特別強調了卷積神經網絡的重要性和應用,他接著作出預測,下一個將會十分流行的技術是記憶增強神經網絡。它可被理解為用記憶增強的遞歸神經網絡,其中,記憶本身是一個能被區(qū)分的回路,并可以作為學習中的一部分用于訓練。
美國時間 11 月 22 日,基于 Zero-Shot 的多語言神經機器學習系統(tǒng)正式登陸谷歌翻譯。它目前被應用于新增加的 16 個語言組中的 10個,帶來更高的翻譯質量和簡化的系統(tǒng)架構。我們可以期待在不久的將來,該系統(tǒng)會逐步支持更多的谷歌翻譯語種。
Zero-Shot 翻譯是指在完成語言 A 到語言 B 的翻譯訓練之后,語言 A 到語言 C 的翻譯不需要再經過任何學習。 它能自動把之前的學習成果轉化到翻譯任意一門語言,即便工程師們從來沒有進行過相關訓練。
通過 Zero-Shot,谷歌解決了把神經機器翻譯系統(tǒng)擴展到全部語言的難題。有了它,一套系統(tǒng)就可以完成所有語言的互翻。從前兩種語言之間都需要多個翻譯系統(tǒng)的情況,從此成為了歷史。這套架構在翻譯其他語言時,不需要在底層 GNMT 系統(tǒng)做任何改變。只需在輸入語句的開頭插入一個輸出語種標記,就可以把結果翻譯為任意語言。
11月 22日,百度舉行了語音開放平臺三周年主題活動,百度首席科學家吳恩達現場發(fā)表演講。他表示百度大腦最核心的幾個技術部分為:
語音
圖像
自然語言處理
用戶畫像
機器學習平臺
這幾年來,我們的團隊在不斷地優(yōu)化語音識別系統(tǒng)。在2012年開始使用DNN模型,后來有比較好的特征,之后開始用Sequence Discriminative Training,也開始使用LSTM模型,加上CTC,今年我們的團隊開發(fā)了Deep CNN模型。
在百度大腦已經有好幾種不同的人工智能技術,其中比較成熟的,就是我們的語音技術。
在很多最重要的百度產品中,我們已經支持語音輸入,包括手機百度、百度地圖、百度輸入法。如果你還沒有試過百度輸入法,我希望你試一試,我輸入信息時就挺喜歡用百度輸入法。還有度秘,最近我們把度秘放入各類硬件中,比如小度機器人。
在百度大腦開放平臺(ai.baidu.com)上,我們不僅輸出人工智能技術,也有很多有關人工智能技術的培訓資料。如果你是使用百度大腦開放平臺,你可以比較容易的選擇真正需要的技術部分把它放進來,把它融合,為你做到最好的效果。再比如說你想服務一個智能客戶,開始的時候覺得只需要語音識別、語音合成技術,但是做了幾個月以后,發(fā)現你需要最領先的自然語言處理技術。如果你是使用百度大腦開放平臺,希望你比較容易拿到這些技術放到自己的產品中。
我個人對人工智能的未來充滿信心,我希望未來我們會有陪伴機器人、個性化私教、音樂作曲、機器人醫(yī)生等等。
11 月 23 日,科大訊飛舉行了年度發(fā)布會,董事長劉慶峰的做了主題演講,他表示 2016 年已經成了中國人工智能的歷史元年,人工智能的第三次大潮,已經切實到來了,已經不再是一個概念,而是可以進入一個又一個的行業(yè)。
人工智能有 3 個層次:計算智能(機器人能計算和存儲)、感知智能(機器的視覺、聽覺可以超過人工)和認知智能(未來的核心)。而以語音和語言為入口的認知計算,是人工智能的必由之路。
訊飛在眾多國際比賽中都獲得傲人成績。全球的語音合成大賽暴風雪競賽中,訊飛在英文領域獲得全球第一名,把英語合成做到了超過普通人說話水平。 在Chime語音識別競賽中,在噪音環(huán)境下訊飛的英文語言錯誤率只有 2.24%。在 2014 年國際口語翻譯大賽( IWSLT)中, 訊飛獲得英漢翻譯、漢英翻譯兩個項目的全球第一。另外在 Winogard 認知智能測試、 KBP 認知大賽中,訊飛都獲得了不菲成績。
所以這些在國際頂尖舞臺上的認知成果,真正證明了我們中國人在人工智能領域已經不僅僅是一個科普、科幻或者帶有所謂先知角度的感性判斷,而是在踏踏實實做理論創(chuàng)新。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。