丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給汪思穎
發(fā)送

1

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

本文作者: 汪思穎 2017-08-15 15:22 專題:CVPR 2017
導語:運用“極致的Inception”模塊來搭建Xception網絡

雷鋒網 AI 科技評論按:雖然CVPR 2017已經落下帷幕,但對精彩論文的解讀還在繼續(xù)。下文是Momenta高級研究員王晉瑋對此次大會收錄的 Xception:Deep Learning with Depthwise Separable Convolutions 一文進行的解讀。

Inception模塊是一大類在ImageNet上取得頂尖結果的模型的基本模塊,例如GoogLeNet、Inception V2/V3和Inception-ResNet。有別于VGG等傳統(tǒng)的網絡通過堆疊簡單的3*3卷積實現特征提取,Inception模塊通過組合1*1,3*3,5*5和pooling等結構,用更少的參數和更少的計算開銷可以學習到更豐富的特征表示。

通常,在一組特征圖上進行卷積需要三維的卷積核,也即卷積核需要同時學習空間上的相關性和通道間的相關性。將這兩種相關性顯式地分離開來,是Inception模塊的思想之一:Inception模塊首先使用1*1的卷積核將特征圖的各個通道映射到一個新的空間,在這一過程中學習通道間的相關性;再通過常規(guī)的3*3或5*5的卷積核進行卷積,以同時學習空間上的相關性和通道間的相關性。

但此時,通道間的相關性和空間相關性仍舊沒有完全分離,也即3*3或5*5的卷積核仍然是多通道輸入的,那么是否可以假設它們可以被完全分離?顯然,當所有3*3或5*5的卷積都作用在只有一個通道的特征圖上時,通道間的相關性和空間上的相關性即達到了完全分離的效果。

若將Inception模塊簡化,僅保留包含3*3的卷積的分支:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

再將所有1*1的卷積進行拼接:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

進一步增多3*3的卷積的分支的數量,使它與1*1的卷積的輸出通道數相等:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

此時每個3*3的卷積即作用于僅包含一個通道的特征圖上,作者稱之為“極致的Inception(Extream Inception)”模塊,這就是Xception的基本模塊。事實上,調節(jié)每個3*3的卷積作用的特征圖的通道數,即調節(jié)3*3的卷積的分支的數量與1*1的卷積的輸出通道數的比例,可以實現一系列處于傳統(tǒng)Inception模塊和“極致的Inception”模塊之間的狀態(tài)。

運用“極致的Inception”模塊,作者搭建了Xception網絡,它由一系列SeparableConv(即“極致的Inception”)、類似ResNet中的殘差連接形式和一些其他常規(guī)的操作組成:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

作者通過TensorFlow實現了Xception,并使用60塊NVIDIA K80分別在ImageNet和JFT(Google內部的圖像分類數據集,包含17000類共3.5億幅圖像)上進行訓練,并分別在ImageNet和FastEval14k上進行測試。在ImageNet上,Xception的準確率相比Inception V3有一定的提升,并比ResNet-152或VGG-16有較多提升(單個模型,單個crop):

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

在JFT/FastEval14k上,Xception取得了比ImageNet上相比于Inception V3更多的準確率提升:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

同時,和Inception V3相比,Xception的參數量有所下降,而訓練時的迭代速度也沒有明顯變慢:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

另外,在ImageNet和JFT上的訓練過程都顯示,Xception在最終準確率更高的同時,收斂過程也比Inception V3更快:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

在Xception中加入的類似ResNet的殘差連接機制也顯著加快了Xception的收斂過程并獲得了顯著更高的準確率:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

值得注意的是,在“極致的Inception”模塊中,用于學習通道間相關性的1*1的卷積和用于學習空間相關性的3*3的卷積之間,不加入任何非線性單元相比于加入ReLU或ELU激活函數將會帶來更快的收斂過程和更高的準確率:

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

這篇文章中提及的Depthwise Convolution操作,即group數、輸入通道數和輸出通道數相等的卷積層,在最近一年內被多篇CNN模型結構設計方面的工作所使用,包括Factorized Convolutional Neural Networks,Xception,MobileNet和ShuffleNet等,以及ResNeXt一文中使用的大量分group卷積操作也與之有相似之處。它們有的在ImageNet上取得了非常好的結果,有的大幅降低了模型的理論計算量但損失較少的準確度。本文作者從空間相關性和通道間相關性的角度解釋Depthwise Convolution,認為這是將學習空間相關性和學習通道間相關性的任務完全分離的實現方式。

事實上,這一操作也可以從低秩角度理解,即將每個輸入通道上可學習的卷積參數的秩限制為1。不過潛在的問題是,雖然Depthwise Convolution可以帶來準確率的提升或是理論計算量的大幅下降,但由于其計算過程較為零散,現有的卷積神經網絡實現中它的效率都不夠高,例如本文中Xception的理論計算量是遠小于Inception V3的,但其訓練時的迭代速度反而更慢一些。期待后續(xù)會出現更加高效的Depthwise Convolution實現。

雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

CVPR 2017精彩論文解讀:對Xception(一種深度可分離卷積)模型的介紹

分享:
相關文章

編輯

關注AI學術,例如論文
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說