0
本文為 AI 研習社編譯的技術(shù)博客,原標題 :
Machines with brains like ours- An intro to Deep Learning
作者 | Mishaal Lakhani
翻譯 | Disillusion、劉劉1126
校對 | 醬番梨 整理 | 菠蘿妹
原文鏈接:
https://medium.com/@mishaallakhani/machines-with-brains-like-ours-an-intro-to-deep-learning-a5dff4c24e97
生成星系圖像,創(chuàng)作莎士比亞風格的作品,將地震預(yù)測時間準確度提高50000%,這些事情有什么共同之處嗎?
很意外吧,這些都是由人工智能(AI)完成的。機器正變得越來越聰明,學習能力也越來越強,這使它們有別于以前的機器。實際上,人腦本身就是許多智能技術(shù)解決問題的靈感來源,它們通過機器學習,特別是深度學習來解決問題。
機器學習是指讓電腦獲取數(shù)據(jù)、理解數(shù)據(jù)、學習數(shù)據(jù),然后做出決策,但是我們并不需要對機器進行明確地編程。深度學習是機器學習的一個子領(lǐng)域,它的靈感來源于人類大腦的神經(jīng)網(wǎng)絡(luò)(我們的大腦用來處理信息的構(gòu)造)。這些神經(jīng)網(wǎng)絡(luò)被叫做人工神經(jīng)網(wǎng)絡(luò)(ANNs),有時也被叫做神經(jīng)網(wǎng)絡(luò)、網(wǎng)絡(luò)、或者模型。它們由一組被稱為節(jié)點的單元(或者叫做人工神經(jīng)元)組成,用來將信息從一個神經(jīng)元傳遞到另一個神經(jīng)元(和人類的大腦一樣)。
一個基本的人工智能網(wǎng)絡(luò)
當一個神經(jīng)元接收、處理和傳遞信號給另一個神經(jīng)元時,這個過程稱為傳輸。這個過程主要包含三層:輸入層、隱藏層和輸出層。
讓我們以卷積神經(jīng)網(wǎng)絡(luò)為例,一個可以用于圖像分類的人工神經(jīng)網(wǎng)絡(luò)。如果我們想讓神經(jīng)網(wǎng)絡(luò)區(qū)分貓和狗,它會經(jīng)歷這些主要步驟。
輸入層
高亮的是進入第一個隱藏層的輸入節(jié)點
每個節(jié)點表示通過模型的樣本數(shù)據(jù)集中的單個特征或變量。這一層的節(jié)點連接著下一層(即隱藏層)的所有節(jié)點。連接有從0到1的權(quán)重,表示連接的強度。我們的狗對貓輸入層中的一些節(jié)點可能是變量,如耳朵大小、皮毛顏色或尾巴長度。
隱藏層
隱藏層是輸入和輸出之間的任何層。本質(zhì)上,它們?yōu)橹赶蛲粋€節(jié)點的連接計算加權(quán)和。這個總和通過一個激活函數(shù)傳遞(我們將在下面更詳細地討論),該激活函數(shù)是基于大腦以及不同的刺激如何激活不同的神經(jīng)元。激活函數(shù)的結(jié)果被傳遞到下一層的下一個節(jié)點上,并不斷重復,直到輸出層。
輸出層
權(quán)重在上述過程中不斷變化,直到被完美優(yōu)化(下面也有更多關(guān)于此的內(nèi)容)。輸出層中產(chǎn)生的神經(jīng)元表示潛在輸出的值。在上述示例神經(jīng)網(wǎng)絡(luò)中,輸出層中的兩個節(jié)點是網(wǎng)絡(luò)認為它是什么的概率,例如,75%可能是狗 vs . 25%可能是貓。
訓練人工神經(jīng)網(wǎng)絡(luò)基本等同于解決一個優(yōu)化問題。在這里,它試圖優(yōu)化神經(jīng)元之間的連接權(quán)重。在訓練過程中,給定的權(quán)重值不斷更新,以達到最優(yōu)值。優(yōu)化依賴于一種優(yōu)化算法,其中最常用的是隨機梯度下降(一種減少損失的算法)。
基本上,這個問題的目標是最小化損失函數(shù)。損失函數(shù)測量結(jié)果的準確性。例如,在訓練一個對貓和狗進行分類的神經(jīng)網(wǎng)絡(luò)時,會提供標記數(shù)據(jù)。比如輸入了一個狗的圖像,網(wǎng)絡(luò)輸出的概率是77%可能狗 vs. 23%可能貓。我們的目標是讓狗的可能性為100%(以確保它是一個狗),并最小化可能出現(xiàn)的錯誤。
一次數(shù)據(jù)傳遞稱為一個迭代次數(shù)。為了學習,神經(jīng)網(wǎng)絡(luò)通過多次迭代傳遞數(shù)據(jù),從而使最初給定的隨機權(quán)重得以發(fā)展。為了改進,以給定的輸出和梯度(函數(shù)d(loss)/d(weight)的導數(shù))乘以學習率(一個介于0.01和0.001之間的數(shù)字)來計算損失。
梯度的值與學習率相乘后會變小。舊的權(quán)重會被替換為更新后的值。
要牢記每個權(quán)重都有一個不同的損失函數(shù)梯度值,因此梯度是根據(jù)每個權(quán)重單獨計算的。隨著迭代次數(shù)的增加,權(quán)值不斷更新,越來越接近優(yōu)化值,損失最小化。這種權(quán)重的更新本質(zhì)上學習,因為分配到每個權(quán)重的值基于損失函數(shù)的影響。
深度學習是機器學習的一個分支,其靈感來源于我們大腦中的神經(jīng)網(wǎng)絡(luò)
在人工神經(jīng)網(wǎng)絡(luò)中有三種主要的層次類型(輸入、隱藏和輸出)
要訓練一個人工神經(jīng)網(wǎng)絡(luò),必須更新值以最小化損失函數(shù)(輸出中有多少錯誤)
神經(jīng)網(wǎng)絡(luò)通過多次數(shù)據(jù)傳遞進行學習,并迭代權(quán)值直到得到優(yōu)化值
感謝你的閱讀!如果你喜歡這篇文章,請留下一些掌聲,關(guān)注我的媒體,以及時獲知我在AI方面的進展。
想要繼續(xù)查看該篇文章相關(guān)鏈接和參考文獻?
長按鏈接點擊打開或點擊【當機器擁有像人類一樣的大腦,會怎么樣?】:
https://ai.yanxishe.com/page/TextTranslation/1319
AI研習社每日更新精彩內(nèi)容,觀看更多精彩內(nèi)容:雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
2018.12十大機器學習熱門網(wǎng)文
等你來譯:
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。