丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能 正文
發(fā)私信給奕欣
發(fā)送

0

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

本文作者: 奕欣 2017-05-18 18:01 專題:AutoML 祛魅
導(dǎo)語:在 Google I/O 大會如火如荼地舉行之際,谷歌大腦團隊要讓機器學(xué)習自己設(shè)計神經(jīng)架構(gòu)了。

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

在 Google I/O 大會上,谷歌公布了最新的機器學(xué)習算法——AutoML,隨即,Quoc Le 與 Barret Aoph 大神在 Google Research Blog 上發(fā)布了一篇名為《采用機器學(xué)習探索神經(jīng)網(wǎng)絡(luò)架構(gòu)》的文章。雷鋒網(wǎng)進行了編譯,并做了不改動原意的編輯和修改。

「在谷歌團隊,我們成功地將深度學(xué)習模型應(yīng)用于非常多的領(lǐng)域,從圖像識別、語音識別到機器翻譯等等。自然,這些工作離不開一整支工程師與科學(xué)家團隊的努力。人工設(shè)計機器學(xué)習模型的過程實際上絕非坦途,因為所有可能組合模型背后的搜索空間非常龐大——一個典型的十層神經(jīng)網(wǎng)絡(luò)可能有~1010 種可能的神經(jīng)網(wǎng)絡(luò)組合。問題也接踵而至,為了應(yīng)對這樣龐大的數(shù)量級,神經(jīng)網(wǎng)絡(luò)的設(shè)計不僅耗時,而且需要機器學(xué)習專家們累積大量的經(jīng)驗?!?/p>

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

如圖是 GoogleNet 的架構(gòu)。神經(jīng)網(wǎng)絡(luò)的設(shè)計需要從最初的卷積架構(gòu)開始,進行多年的細心調(diào)試

為了讓機器學(xué)習模型的設(shè)計變得更加簡單,谷歌團隊一直希望能讓這一過程自動化。此前谷歌也有做不少嘗試,包括 evolutionary algorithms 與 reinforcement learning algorithms 等算法已經(jīng)呈現(xiàn)了比較好的結(jié)果。而 Quoc Le 與 Barret Zoph 在此文中所展現(xiàn)的,是谷歌大腦團隊目前在強化學(xué)習上得到的一些嘗試與早期結(jié)果。

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

在團隊一個名為「AutoML」的項目中(如圖所示),左邊有一個名為「控制器」(the controller)的 RNN,它設(shè)計出一個「child」的模型架構(gòu)(雷鋒網(wǎng)覺得可以稱之為「雛形/子架構(gòu)」),而后者能夠通過某些特定任務(wù)進行訓(xùn)練與評估。隨后,反饋的結(jié)果(feedback)得以返回到控制器中,并在下一次循環(huán)中提升它的訓(xùn)練設(shè)定。這一過程重復(fù)上千次——生成新的架構(gòu)、測試、再把反饋輸送給控制器再次學(xué)習。最終,控制器會傾向于設(shè)計那些在數(shù)據(jù)集中能獲得更高準確性的架構(gòu),而反之亦然。

谷歌團隊將這一方法應(yīng)用于深度學(xué)習的兩大數(shù)據(jù)集中,專注圖像識別的 CIFAR-10 與語言建模的 Penn Treebank。在兩個數(shù)據(jù)集上,系統(tǒng)自行設(shè)計的模型性能表現(xiàn)與目前機器學(xué)習專家所設(shè)計的領(lǐng)先模型不相上下(有些模型甚至還是谷歌成員自己設(shè)計的!)。

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

猜猜哪個是人類設(shè)計的神經(jīng)網(wǎng)絡(luò)架構(gòu),哪個是機器設(shè)計的?

讓機器自行選擇架構(gòu)(machine-chosen architecture),與人類在設(shè)計神經(jīng)網(wǎng)絡(luò)的時候有一些共通之處,比如都采用了合并輸入,并借鑒了此前的隱藏層。但其中也有一些亮點,比如機器選擇的架構(gòu)包含乘法組合 ( multiplicative combination),如右圖最左邊(機器設(shè)計)的藍色標簽為「elem_mult」。對于循環(huán)神經(jīng)網(wǎng)絡(luò)而言,出現(xiàn)組合的情況并不多見,可能因為人類研究者并沒有發(fā)現(xiàn)明顯的優(yōu)勢。有意思的地方在于,此前人類設(shè)計者也提議過機器采用的乘法組合,認為這種方法能夠有效緩解梯度消失/爆炸問題。這也就意味著,機器選擇的架構(gòu)能夠?qū)Πl(fā)現(xiàn)新的神經(jīng)架構(gòu)大有裨益。

此外,機器還能教會人類為何某些神經(jīng)網(wǎng)絡(luò)的運行效果比較好。上圖右邊的架構(gòu)有非常多的渠道,梯度可以向后流動,這也解釋了為何 LSTM RNNs 的表現(xiàn)比標準 RNN 的性能要好。

「從長遠看來,我們對于機器所設(shè)計的架構(gòu)進行深入的分析和測試,這能夠幫助我們重新定義原本自身對架構(gòu)的看法。如果我們成功,這意味著將會啟發(fā)新的神經(jīng)網(wǎng)絡(luò)的誕生,也能讓一些非專家研究人員根據(jù)自己的需要創(chuàng)造神經(jīng)網(wǎng)絡(luò),讓機器學(xué)習造福每一個人?!?/p>

參考文獻:

[1] Large-Scale Evolution of Image Classifiers, Esteban Real, Sherry Moore, Andrew Selle, Saurabh Saxena, Yutaka Leon Suematsu, Quoc Le, Alex Kurakin. International Conference on Machine Learning, 2017.

[2] Neural Architecture Search with Reinforcement Learning, Barret Zoph, Quoc V. Le. International Conference on Learning Representations, 2017.

via research.googleblog,雷鋒網(wǎng)編譯

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

谷歌大腦撰文解析 AutoML:神經(jīng)網(wǎng)絡(luò)如何自行設(shè)計神經(jīng)架構(gòu)? | Google I/O 2017

分享:
相關(guān)文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說