1
本文作者: AI研習(xí)社 | 2017-05-26 10:02 |
雷鋒網(wǎng)按:本文作者曾梓華,原文載于作者個人博客,雷鋒網(wǎng)已獲授權(quán)。
最近這段時間系統(tǒng)性的學(xué)習(xí)了 BP 算法后寫下了這篇學(xué)習(xí)筆記,因為能力有限,若有明顯錯誤,還請指正。
假設(shè)我們有一個函數(shù) J(w),如下圖所示。
梯度下降示意圖
現(xiàn)在,我們要求當(dāng) w 等于什么的時候,J(w) 能夠取到最小值。從圖中我們知道最小值在初始位置的左邊,也就意味著如果想要使 J(w) 最小,w的值需要減小。而初始位置的切線的斜率a > 0(也即該位置對應(yīng)的導(dǎo)數(shù)大于0),w = w – a 就能夠讓 w 的值減小,循環(huán)求導(dǎo)更新w直到 J(w) 取得最小值。如果函數(shù)J(w)包含多個變量,那么就要分別對不同變量求偏導(dǎo)來更新不同變量的值。
所謂的鏈?zhǔn)角髮?dǎo)法則,就是求復(fù)合函數(shù)的導(dǎo)數(shù):
鏈?zhǔn)角髮?dǎo)法則
放個例題,會更加明白一點(diǎn):
鏈?zhǔn)角髮?dǎo)的例子
神經(jīng)網(wǎng)絡(luò)由三部分組成,分別是最左邊的輸入層,隱藏層(實(shí)際應(yīng)用中遠(yuǎn)遠(yuǎn)不止一層)和最右邊的輸出層。層與層之間用線連接在一起,每條連接線都有一個對應(yīng)的權(quán)重值 w,除了輸入層,一般來說每個神經(jīng)元還有對應(yīng)的偏置 b。
神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)圖
除了輸入層的神經(jīng)元,每個神經(jīng)元都會有加權(quán)求和得到的輸入值 z 和將 z 通過 Sigmoid 函數(shù)(也即是激活函數(shù))非線性轉(zhuǎn)化后的輸出值 a,他們之間的計算公式如下
神經(jīng)元輸出值 a 的計算公式
其中,公式里面的變量l和j表示的是第 l 層的第 j 個神經(jīng)元,ij 則表示從第 i 個神經(jīng)元到第 j 個神經(jīng)元之間的連線,w 表示的是權(quán)重,b 表示的是偏置,后面這些符號的含義大體上與這里描述的相似,所以不會再說明。下面的 Gif 動圖可以更加清楚每個神經(jīng)元輸入輸出值的計算方式(注意,這里的動圖并沒有加上偏置,但使用中都會加上)
動圖顯示計算神經(jīng)元輸出值
使用激活函數(shù)的原因是因為線性模型(無法處理線性不可分的情況)的表達(dá)能力不夠,所以這里通常需要加入 Sigmoid 函數(shù)來加入非線性因素得到神經(jīng)元的輸出值。
關(guān)于為什么線性函數(shù)模型表達(dá)能力不夠,可以點(diǎn)擊這里查看知乎上面的討論。
sigmoid 函數(shù)
可以看到 Sigmoid 函數(shù)的值域為 (0,1) ,若對于多分類任務(wù),輸出層的每個神經(jīng)元可以表示是該分類的概率。當(dāng)然還存在其他的激活函數(shù),他們的用途和優(yōu)缺點(diǎn)也都各異。
在手工設(shè)定了神經(jīng)網(wǎng)絡(luò)的層數(shù),每層的神經(jīng)元的個數(shù),學(xué)習(xí)率 η(下面會提到)后,BP 算法會先隨機(jī)初始化每條連接線權(quán)重和偏置,然后對于訓(xùn)練集中的每個輸入 x 和輸出 y,BP 算法都會先執(zhí)行前向傳輸?shù)玫筋A(yù)測值,然后根據(jù)真實(shí)值與預(yù)測值之間的誤差執(zhí)行逆向反饋更新神經(jīng)網(wǎng)絡(luò)中每條連接線的權(quán)重和每層的偏好。在沒有到達(dá)停止條件的情況下重復(fù)上述過程。
其中,停止條件可以是下面這三條
● 權(quán)重的更新低于某個閾值的時候
● 預(yù)測的錯誤率低于某個閾值
● 達(dá)到預(yù)設(shè)一定的迭代次數(shù)
譬如說,手寫數(shù)字識別中,一張手寫數(shù)字1的圖片儲存了28*28 = 784個像素點(diǎn),每個像素點(diǎn)儲存著灰度值(值域為[0,255]),那么就意味著有784個神經(jīng)元作為輸入層,而輸出層有10個神經(jīng)元代表數(shù)字0~9,每個神經(jīng)元取值為0~1,代表著這張圖片是這個數(shù)字的概率。
每輸入一張圖片(也就是實(shí)例),神經(jīng)網(wǎng)絡(luò)會執(zhí)行前向傳輸一層一層的計算到輸出層神經(jīng)元的值,根據(jù)哪個輸出神經(jīng)元的值最大來預(yù)測輸入圖片所代表的手寫數(shù)字。
然后根據(jù)輸出神經(jīng)元的值,計算出預(yù)測值與真實(shí)值之間的誤差,再逆向反饋更新神經(jīng)網(wǎng)絡(luò)中每條連接線的權(quán)重和每個神經(jīng)元的偏好。
前向傳輸(Feed-Forward)
從輸入層=>隱藏層=>輸出層,一層一層的計算所有神經(jīng)元輸出值的過程。
逆向反饋(Back Propagation)
因為輸出層的值與真實(shí)的值會存在誤差,我們可以用均方誤差來衡量預(yù)測值和真實(shí)值之間的誤差。
均方誤差
逆向反饋的目標(biāo)就是讓E函數(shù)的值盡可能的小,而每個神經(jīng)元的輸出值是由該點(diǎn)的連接線對應(yīng)的權(quán)重值和該層對應(yīng)的偏好所決定的,因此,要讓誤差函數(shù)達(dá)到最小,我們就要調(diào)整w和b值, 使得誤差函數(shù)的值最小。
權(quán)重和偏置的更新公式
對目標(biāo)函數(shù) E 求 w 和 b 的偏導(dǎo)可以得到 w 和 b 的更新量,下面拿求 w 偏導(dǎo)來做推導(dǎo)。
其中 η 為學(xué)習(xí)率,取值通常為 0.1 ~ 0.3,可以理解為每次梯度所邁的步伐。注意到 w_hj 的值先影響到第 j 個輸出層神經(jīng)元的輸入值a,再影響到輸出值y,根據(jù)鏈?zhǔn)角髮?dǎo)法則有:
使用鏈?zhǔn)椒▌t展開對權(quán)重求偏導(dǎo)
根據(jù)神經(jīng)元輸出值 a 的定義有:
對函數(shù) z 求 w 的偏導(dǎo)
Sigmoid 求導(dǎo)數(shù)的式子如下,從式子中可以發(fā)現(xiàn)其在計算機(jī)中實(shí)現(xiàn)也是非常的方便:
Sigmoid 函數(shù)求導(dǎo)
所以
則權(quán)重 w 的更新量為:
類似可得 b 的更新量為:
但這兩個公式只能夠更新輸出層與前一層連接線的權(quán)重和輸出層的偏置,原因是因為 δ 值依賴了真實(shí)值y這個變量,但是我們只知道輸出層的真實(shí)值而不知道每層隱藏層的真實(shí)值,導(dǎo)致無法計算每層隱藏層的 δ 值,所以我們希望能夠利用 l+1 層的 δ 值來計算 l 層的 δ 值,而恰恰通過一些列數(shù)學(xué)轉(zhuǎn)換后可以做到,這也就是逆向反饋名字的由來,公式如下:
從式子中我們可以看到,我們只需要知道下一層的權(quán)重和神經(jīng)元輸出層的值就可以計算出上一層的 δ 值,我們只要通過不斷的利用上面這個式子就可以更新隱藏層的全部權(quán)重和偏置了。
在推導(dǎo)之前請先觀察下面這張圖:
l 和 l+1 層的神經(jīng)元
首先我們看到 l 層的第 i 個神經(jīng)元與 l+1 層的所有神經(jīng)元都有連接,那么我們可以將 δ 展開成如下的式子:
也即是說我們可以將 E 看做是 l+1 層所有神經(jīng)元輸入值的 z 函數(shù),而上面式子的 n 表示的是 l+1 層神經(jīng)元的數(shù)量,再進(jìn)行化簡后就可以得到上面所說的式子。
在這里的推導(dǎo)過程只解釋了關(guān)鍵的部分,如果要查看更加詳細(xì)的推導(dǎo)內(nèi)容,可以點(diǎn)擊此處下載我在學(xué)習(xí)過程中參考的一篇 pdf 文檔,里面的推導(dǎo)過程非常詳細(xì)。另外也參考了周志華所寫的機(jī)器學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)部分的內(nèi)容和 neural networks and deep learning 的內(nèi)容。
源碼來自于 Michael Nielsen 大神的深度學(xué)習(xí)在線教程,但他的內(nèi)容都是英文的,我結(jié)合了自己的理解和上面的理論知識對源碼進(jìn)行了注釋。>>點(diǎn)擊此處查看整理的代碼和數(shù)字識別實(shí)例<<
使用 Python 實(shí)現(xiàn)的神經(jīng)網(wǎng)絡(luò)的代碼行數(shù)并不多,僅包含一個 Network 類,首先來看看該類的構(gòu)造方法。
def __init__(self, sizes):
"""
:param sizes: list類型,儲存每層神經(jīng)網(wǎng)絡(luò)的神經(jīng)元數(shù)目
譬如說:sizes = [2, 3, 2] 表示輸入層有兩個神經(jīng)元、
隱藏層有3個神經(jīng)元以及輸出層有2個神經(jīng)元
"""
# 有幾層神經(jīng)網(wǎng)絡(luò)
self.num_layers = len(sizes)
self.sizes = sizes
# 除去輸入層,隨機(jī)產(chǎn)生每層中 y 個神經(jīng)元的 biase 值(0 - 1)
self.biases = [np.random.randn(y, 1) for y in sizes[1:]]
# 隨機(jī)產(chǎn)生每條連接線的 weight 值(0 - 1)
self.weights = [np.random.randn(y, x)
for x, y in zip(sizes[:-1], sizes[1:])]
向前傳輸(FreedForward)的代碼。
def feedforward(self, a):
"""
前向傳輸計算每個神經(jīng)元的值
:param a: 輸入值
:return: 計算后每個神經(jīng)元的值
"""
for b, w in zip(self.biases, self.weights):
# 加權(quán)求和以及加上 biase
a = sigmoid(np.dot(w, a)+b)
return a
源碼里使用的是隨機(jī)梯度下降(Stochastic Gradient Descent,簡稱 SGD),原理與梯度下降相似,不同的是隨機(jī)梯度下降算法每次迭代只取數(shù)據(jù)集中一部分的樣本來更新 w 和 b 的值,速度比梯度下降快,但是,它不一定會收斂到局部極小值,可能會在局部極小值附近徘徊。
def SGD(self, training_data, epochs, mini_batch_size, eta,
test_data=None):
"""
隨機(jī)梯度下降
:param training_data: 輸入的訓(xùn)練集
:param epochs: 迭代次數(shù)
:param mini_batch_size: 小樣本數(shù)量
:param eta: 學(xué)習(xí)率
:param test_data: 測試數(shù)據(jù)集
"""
if test_data: n_test = len(test_data)
n = len(training_data)
for j in xrange(epochs):
# 攪亂訓(xùn)練集,讓其排序順序發(fā)生變化
random.shuffle(training_data)
# 按照小樣本數(shù)量劃分訓(xùn)練集
mini_batches = [
training_data[k:k+mini_batch_size]
for k in xrange(0, n, mini_batch_size)]
for mini_batch in mini_batches:
# 根據(jù)每個小樣本來更新 w 和 b,代碼在下一段
self.update_mini_batch(mini_batch, eta)
# 輸出測試每輪結(jié)束后,神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確度
if test_data:
print "Epoch {0}: {1} / {2}".format(
j, self.evaluate(test_data), n_test)
else:
print "Epoch {0} complete".format(j)
根據(jù) backprop 方法得到的偏導(dǎo)數(shù)更新 w 和 b 的值。
def update_mini_batch(self, mini_batch, eta):
"""
更新 w 和 b 的值
:param mini_batch: 一部分的樣本
:param eta: 學(xué)習(xí)率
"""
# 根據(jù) biases 和 weights 的行列數(shù)創(chuàng)建對應(yīng)的全部元素值為 0 的空矩陣
nabla_b = [np.zeros(b.shape) for b in self.biases]
nabla_w = [np.zeros(w.shape) for w in self.weights]
for x, y in mini_batch:
# 根據(jù)樣本中的每一個輸入 x 的其輸出 y,計算 w 和 b 的偏導(dǎo)數(shù)
delta_nabla_b, delta_nabla_w = self.backprop(x, y)
# 累加儲存偏導(dǎo)值 delta_nabla_b 和 delta_nabla_w
nabla_b = [nb+dnb for nb, dnb in zip(nabla_b, delta_nabla_b)]
nabla_w = [nw+dnw for nw, dnw in zip(nabla_w, delta_nabla_w)]
# 更新根據(jù)累加的偏導(dǎo)值更新 w 和 b,這里因為用了小樣本,
# 所以 eta 要除于小樣本的長度
self.weights = [w-(eta/len(mini_batch))*nw
for w, nw in zip(self.weights, nabla_w)]
self.biases = [b-(eta/len(mini_batch))*nb
for b, nb in zip(self.biases, nabla_b)]
下面這塊代碼是源碼最核心的部分,也即 BP 算法的實(shí)現(xiàn),包含了前向傳輸和逆向反饋,前向傳輸在 Network 里有單獨(dú)一個方法(上面提到的 feedforward 方法),那個方法是用于驗證訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的精確度的,在下面有提到該方法。
def backprop(self, x, y):
"""
:param x:
:param y:
:return:
"""
nabla_b = [np.zeros(b.shape) for b in self.biases]
nabla_w = [np.zeros(w.shape) for w in self.weights]
# 前向傳輸
activation = x
# 儲存每層的神經(jīng)元的值的矩陣,下面循環(huán)會 append 每層的神經(jīng)元的值
activations = [x]
# 儲存每個未經(jīng)過 sigmoid 計算的神經(jīng)元的值
zs = []
for b, w in zip(self.biases, self.weights):
z = np.dot(w, activation)+b
zs.append(z)
activation = sigmoid(z)
activations.append(activation)
# 求 δ 的值
delta = self.cost_derivative(activations[-1], y) * \
sigmoid_prime(zs[-1])
nabla_b[-1] = delta
# 乘于前一層的輸出值
nabla_w[-1] = np.dot(delta, activations[-2].transpose())
for l in xrange(2, self.num_layers):
# 從倒數(shù)第 **l** 層開始更新,**-l** 是 python 中特有的語法表示從倒數(shù)第 l 層開始計算
# 下面這里利用 **l+1** 層的 δ 值來計算 **l** 的 δ 值
z = zs[-l]
sp = sigmoid_prime(z)
delta = np.dot(self.weights[-l+1].transpose(), delta) * sp
nabla_b[-l] = delta
nabla_w[-l] = np.dot(delta, activations[-l-1].transpose())
return (nabla_b, nabla_w)
接下來則是 evaluate 的實(shí)現(xiàn),調(diào)用 feedforward 方法計算訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)的輸出層神經(jīng)元值(也即預(yù)測值),然后比對正確值和預(yù)測值得到精確率。
def evaluate(self, test_data):
# 獲得預(yù)測結(jié)果
test_results = [(np.argmax(self.feedforward(x)), y)
for (x, y) in test_data]
# 返回正確識別的個數(shù)
return sum(int(x == y) for (x, y) in test_results)
最后,我們可以利用這個源碼來訓(xùn)練一個手寫數(shù)字識別的神經(jīng)網(wǎng)絡(luò),并輸出評估的結(jié)果,代碼如下:
import mnist_loader
import network
training_data, validation_data, test_data = mnist_loader.load_data_wrapper()
net = network.Network([784, 30, 10])
net.SGD(training_data, 30, 10, 3.0, test_data = test_data)
# 輸出結(jié)果
# Epoch 0: 9038 / 10000
# Epoch 1: 9178 / 10000
# Epoch 2: 9231 / 10000
# ...
# Epoch 27: 9483 / 10000
# Epoch 28: 9485 / 10000
# Epoch 29: 9477 / 10000
可以看到,在經(jīng)過 30 輪的迭代后,識別手寫神經(jīng)網(wǎng)絡(luò)的精確度在 95% 左右,當(dāng)然,設(shè)置不同的迭代次數(shù),學(xué)習(xí)率以取樣數(shù)對精度都會有影響,如何調(diào)參也是一門技術(shù)活,這個坑就后期再填吧。
神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn):
網(wǎng)絡(luò)實(shí)質(zhì)上實(shí)現(xiàn)了一個從輸入到輸出的映射功能,而數(shù)學(xué)理論已證明它具有實(shí)現(xiàn)任何復(fù)雜非線性映射的功能。這使得它特別適合于求解內(nèi)部機(jī)制復(fù)雜的問題。
網(wǎng)絡(luò)能通過學(xué)習(xí)帶正確答案的實(shí)例集自動提取“合理的”求解規(guī)則,即具有自學(xué)習(xí)能力。
網(wǎng)絡(luò)具有一定的推廣、概括能力。
神經(jīng)網(wǎng)絡(luò)的缺點(diǎn):
對初始權(quán)重非常敏感,極易收斂于局部極小。
容易 Over Fitting 和 Over Training。
如何選擇隱藏層數(shù)和神經(jīng)元個數(shù)沒有一個科學(xué)的指導(dǎo)流程,有時候感覺就是靠猜。
應(yīng)用領(lǐng)域:
常見的有圖像分類,自動駕駛,自然語言處理等。
但其實(shí)想要訓(xùn)練好一個神經(jīng)網(wǎng)絡(luò)還面臨著很多的坑(譬如下面四條):
1. 如何選擇超參數(shù)的值,譬如說神經(jīng)網(wǎng)絡(luò)的層數(shù)和每層的神經(jīng)元數(shù)量以及學(xué)習(xí)率;
2. 既然對初始化權(quán)重敏感,那該如何避免和修正;
3. Sigmoid 激活函數(shù)在深度神經(jīng)網(wǎng)絡(luò)中會面臨梯度消失問題該如何解決;
4. 避免 Overfitting 的 L1 和 L2正則化是什么。
[1] 周志華 機(jī)器學(xué)習(xí)
[2] 斯坦福大學(xué)機(jī)器學(xué)習(xí)在線課程
[4] How the backpropagation algorithm works
雷鋒網(wǎng)(公眾號:雷鋒網(wǎng))相關(guān)閱讀:
反向傳播算法最全解讀,機(jī)器學(xué)習(xí)進(jìn)階必看!
淺談神經(jīng)網(wǎng)絡(luò)訓(xùn)練方法,Deepmind更青睞正向傳播
深度學(xué)習(xí)之神經(jīng)網(wǎng)絡(luò)特訓(xùn)班
20年清華大學(xué)神經(jīng)網(wǎng)絡(luò)授課導(dǎo)師鄧志東教授,帶你系統(tǒng)學(xué)習(xí)人工智能之神經(jīng)網(wǎng)絡(luò)理論及應(yīng)用!
課程鏈接:http://www.mooc.ai/course/65
加入AI慕課學(xué)院人工智能學(xué)習(xí)交流QQ群:624413030,與AI同行一起交流成長
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。