丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給李尊
發(fā)送

1

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

本文作者: 李尊 2016-09-01 17:39
導(dǎo)語(yǔ):Google最新開源Inception-ResNet-v2,在TensorFlow中提升圖像分類水準(zhǔn)

聯(lián)合編譯:Blake、高斐

2016年8月31日,Google團(tuán)隊(duì)宣布針對(duì)TensorFlow開源了最新發(fā)布的TF-slim資料庫(kù),它是一個(gè)可以定義、訓(xùn)練和評(píng)估模型的輕量級(jí)的軟件包,也能對(duì)圖像分類領(lǐng)域中幾個(gè)主要有競(jìng)爭(zhēng)力的網(wǎng)絡(luò)進(jìn)行檢驗(yàn)和定義模型。

為了進(jìn)一步推進(jìn)這個(gè)領(lǐng)域的進(jìn)步,今天Google團(tuán)隊(duì)宣布發(fā)布Inception-ResNet-v2(一種卷積神經(jīng)網(wǎng)絡(luò)——CNN),它在ILSVRC圖像分類基準(zhǔn)測(cè)試中實(shí)現(xiàn)了當(dāng)下最好的成績(jī)。Inception-ResNet-v2是早期Inception V3模型變化而來(lái),從微軟的殘差網(wǎng)絡(luò)(ResNet)論文中得到了一些靈感。相關(guān)論文信息可以參看我們的論文Inception-v4, Inception-ResNet and the Impact of Residual Connections on LearningInception-v4, Inception-ResNet以及殘差連接在學(xué)習(xí)上的影響):

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

殘差連接(Residual connections )允許模型中存在shortcuts,可以讓研究學(xué)者成功地訓(xùn)練更深的神經(jīng)網(wǎng)絡(luò)(能夠獲得更好的表現(xiàn)),這樣也能明顯地簡(jiǎn)化Inception塊。將兩種模型架構(gòu)對(duì)比,見下圖:

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

在第二幅Inception-ResNet-v2圖中最上部分,你能看到整個(gè)網(wǎng)絡(luò)擴(kuò)展了。注意該網(wǎng)絡(luò)被認(rèn)為比先前的Inception V3還要深一些。在圖中主要部分重復(fù)的殘差區(qū)塊已經(jīng)被壓縮了,所以整個(gè)網(wǎng)絡(luò)看起來(lái)更加直觀。另外注意到圖中inception區(qū)塊被簡(jiǎn)化了,比先前的Inception V3種要包含更少的并行塔 (parallel towers)。

如下方圖表所示,Inception-ResNet-v2架構(gòu)的精確度比之前的最優(yōu)模型更高,圖表中所示為基于單個(gè)圖像的ILSVRC 2012圖像分類標(biāo)準(zhǔn)得出的排行第一與排行第五的有效精確度。此外,該新模型僅僅要求兩倍于Inception v3的容量與計(jì)算能力。

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

例如,盡管Inception v3與Inception-ResNet-v2都很擅長(zhǎng)識(shí)別每一條狗所屬的類別,這種新模型的性能更為顯著。例如,舊模型可能會(huì)錯(cuò)誤地將右邊的圖片識(shí)別為阿拉斯加雪橇犬,新模型Inception-ResNet-v2能夠準(zhǔn)確地識(shí)別兩個(gè)圖片中狗的類別。

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

阿拉斯加雪橇犬(左)和西伯利亞雪橇犬(右)。圖片來(lái)源:維基百科。

為了使人們理解開始試驗(yàn),我們也將要發(fā)布新型Inception-ResNet-v2預(yù)訓(xùn)練實(shí)例,作為TF-Slim 圖像模型庫(kù)的組成部分。

看到本研究領(lǐng)域關(guān)于這一經(jīng)過(guò)改進(jìn)的模型所取得的進(jìn)展,而且人們開始采用這種新模型,并將其性能在多種任務(wù)作對(duì)比,我們?yōu)榇烁械椒浅Ed奮。你也想要開始使用這種新模型嗎?讓我們一起來(lái)看看附帶的操作指示,學(xué)會(huì)如何訓(xùn)練,評(píng)估或微調(diào)一個(gè)網(wǎng)絡(luò)。

Inception-ResNet-v2具體代碼實(shí)現(xiàn)過(guò)程參見:

https://github.com/tensorflow/models/blob/master/slim/nets/inception_resnet_v2.py

PS : 本文由雷鋒網(wǎng)獨(dú)家編譯,未經(jīng)許可拒絕轉(zhuǎn)載!

via Google Research Blog

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Google最新開源Inception-ResNet-v2,借助殘差網(wǎng)絡(luò)進(jìn)一步提升圖像分類水準(zhǔn)

分享:
相關(guān)文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)