丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開(kāi)發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

本文作者: AI研習(xí)社 2017-07-11 15:03
導(dǎo)語(yǔ):卷積神經(jīng)網(wǎng)絡(luò)一共有幾種?又經(jīng)歷了怎樣的演變?

雷鋒網(wǎng)按:提起卷積神經(jīng)網(wǎng)絡(luò)你會(huì)想到什么?LeNet、AlexNet 還是 ResNet?它們之間有哪些差別和特點(diǎn),又經(jīng)歷了怎樣的發(fā)展和演變?本文將針對(duì)這一話(huà)題展開(kāi)討論。原文作者楊熹,載于作者的個(gè)人博客,雷鋒網(wǎng)經(jīng)授權(quán)發(fā)布。

人工神經(jīng)網(wǎng)絡(luò)模型整體上的發(fā)展過(guò)程如下圖所示:

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

上圖對(duì)比了本文所述的各種神經(jīng)網(wǎng)絡(luò)之間,操作復(fù)雜度和精度之間的關(guān)系。

  LeNet5

1998, Yann LeCun 的 LeNet5。

圖像特征分布在整個(gè)圖像上。 

在具有很少參數(shù)的多個(gè)位置上提取類(lèi)似特征時(shí),具有可學(xué)習(xí)的參數(shù)的卷積是個(gè)比較有效的方法。 

在沒(méi)有應(yīng)用GPU的時(shí)候,能夠保存參數(shù)和計(jì)算就成了一個(gè)關(guān)鍵優(yōu)勢(shì)。 

LeNet5并沒(méi)有把每個(gè)像素都作為大型多層神經(jīng)網(wǎng)絡(luò)的一個(gè)輸入,因?yàn)閳D像是高度空間相關(guān)的,如果用了這種方法,就不能很好地利用相關(guān)性。

LeNet5 的主要特征:

  • CNN 主要用這3層的序列: convolution, pooling, non-linearity;

  • 用卷積提取空間特征;

  • 由空間平均得到子樣本;

  • 用 tanh 或 sigmoid 得到非線(xiàn)性;

  • 用 multi-layer neural network(MLP)作為最終分類(lèi)器;

  • 層層之間用稀疏的連接矩陣,以避免大的計(jì)算成本。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  Dan Ciresan Net

2010, Dan Claudiu Ciresan and Jurgen Schmidhuber 的 Dan Ciresan Net。

是比較早的GPU神經(jīng)網(wǎng)絡(luò)之一,在 NVIDIA GTX 280 圖形處理器上實(shí)現(xiàn)了9層神經(jīng)網(wǎng)絡(luò)的前向后向計(jì)算。

  AlexNet

2012,Alex Krizhevsky 的 AlexNet。

是LeNet的一個(gè)更深和更廣的版本,可以用來(lái)學(xué)習(xí)更復(fù)雜的對(duì)象。

AlexNet 的主要特征:

  • 用rectified linear units(ReLU)得到非線(xiàn)性;

  • 使用輟 dropout 技巧在訓(xùn)練期間有選擇性地忽略單個(gè)神經(jīng)元,來(lái)減緩模型的過(guò)擬合;

  • 重疊最大池,避免平均池的平均效果;

  • 使用 GPU NVIDIA GTX 580 可以減少訓(xùn)練時(shí)間,這比用CPU處理快了 10 倍,所以可以被用于更大的數(shù)據(jù)集和圖像上。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  OverFeat

2013年12月,Yann LeCun的紐約大學(xué)實(shí)驗(yàn)室的 OverFeat。

是AlexNet的衍生,提出了 learning bounding boxes。

  VGG

2015,牛津的 VGG。

率先在每個(gè)卷積層中使用更小的 3×3 filters,并將它們組合成卷積序列。

雖然小,但是多個(gè)3×3卷積序列可以模擬更大的接收?qǐng)龅男Ч?/p>

這個(gè)想法也在最近的Inception和ResNet網(wǎng)絡(luò)中有所應(yīng)用。

  NiN

2014,Min Lin, Qiang Chen, Shuicheng Yan 的 NiN。

它的思想很簡(jiǎn)單但是很有效,使用1x1卷積給一個(gè)卷積層的特征提供了更多的組合性。

每個(gè)卷積之后使用空間MLP層,以便在另一層之前更好地組合特征,而沒(méi)有使用原始像素作為下一層的輸入。

可以有效地使用非常少的參數(shù),在這些特征的所有像素之間共享。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  GoogLeNet and Inception

2014,Google Christian Szegedy 的 GoogLeNet and Inception。

在昂貴的并行塊之前,使用1×1卷積塊(NiN)來(lái)減少特征數(shù)量,這通常被稱(chēng)為“瓶頸”,可以減少深層神經(jīng)網(wǎng)絡(luò)的計(jì)算負(fù)擔(dān)。

它用一個(gè)沒(méi)有 inception modules 的 stem 作為初始層。

用類(lèi)似于NiN的平均池加上softmax分類(lèi)器。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  Inception V3 (and V2)

2015年2月,Christian 團(tuán)隊(duì)的 Inception V2,2015年12月,Inception V3。

在每個(gè)池之前,增加 feature maps,構(gòu)建網(wǎng)絡(luò)時(shí),仔細(xì)平衡深度和寬度,使流入網(wǎng)絡(luò)的信息最大化。

當(dāng)深度增加時(shí),特征的數(shù)量或?qū)拥膶挾纫灿兴黾印?/p>

在下一層之前,增加每一層的寬度來(lái)增多特征的組合性。

盡量只使用3x3卷積。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  ResNet

2015,Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun 的 ResNet。

這個(gè)網(wǎng)絡(luò)繞過(guò)了2層,可以被看作一個(gè)小的分類(lèi)器,或者一個(gè)NiN 。

這也是第一次訓(xùn)練了大于100甚至1000層的網(wǎng)絡(luò)。 

在每一層,通過(guò)使用更小output的1x1卷積來(lái)減少特征的數(shù)量,然后經(jīng)過(guò)一個(gè)3x3 層,接著又是一個(gè)1x1卷積,這個(gè)方法可以保持少計(jì)算量,同時(shí)提供豐富的特征組合。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

  Xception

2016,F(xiàn)ran?ois Chollet 的 Xception。

這個(gè)網(wǎng)絡(luò)和 ResNet and Inception V4 一樣有效,而且用了更簡(jiǎn)單優(yōu)雅的結(jié)構(gòu) 。

它有36個(gè)卷積階段,和ResNet-34相似,不過(guò)模型和代碼和ResNet一樣簡(jiǎn)單,并且比Inception V4更易理解 。

這個(gè)網(wǎng)絡(luò)在 Torch7/Keras / TF 都已經(jīng)可以應(yīng)用了。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

英文參考:

http://t.cn/R6V1ELT

雷鋒網(wǎng)相關(guān)閱讀:

YJango的卷積神經(jīng)網(wǎng)絡(luò)——介紹

雜談CNN:如何通過(guò)優(yōu)化求解輸入圖像

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。

一篇卷積神經(jīng)網(wǎng)絡(luò)的編年史

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開(kāi)發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問(wèn):yanxishe.com
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話(huà)
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶(hù)安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)