丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給AI研習(xí)社
發(fā)送

0

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

本文作者: AI研習(xí)社 2017-06-16 14:44
導(dǎo)語:英偉達(dá) DIGITS,真的不用寫代碼。

雷鋒網(wǎng)按:本文作者劉志,現(xiàn)于西安電子科技大學(xué)智能感知與圖像理解教育部重點(diǎn)實(shí)驗(yàn)室,攻讀博士學(xué)位,主要研究方向包括機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、數(shù)字圖像處理等。本文系作者獨(dú)家供稿,雷鋒網(wǎng)首發(fā)。

  引言

2006年,機(jī)器學(xué)習(xí)界泰斗Hinton,在Science上發(fā)表了一篇使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行維數(shù)約簡(jiǎn)的論文 ,自此,神經(jīng)網(wǎng)絡(luò)再次走進(jìn)人們的視野,進(jìn)而引發(fā)了一場(chǎng)深度學(xué)習(xí)革命。深度學(xué)習(xí)之所以如此受關(guān)注,是因?yàn)樗谥T如圖像分類、目標(biāo)檢測(cè)與識(shí)別、目標(biāo)跟蹤、語音識(shí)別、游戲(AlphaGo)等多個(gè)領(lǐng)域取得了相當(dāng)優(yōu)秀的成績(jī),掀起了又一波人工只能浪潮。深度學(xué)習(xí)技術(shù)逐漸成為機(jī)器學(xué)習(xí)領(lǐng)域的前沿技術(shù),近年來得到了突飛猛進(jìn)的發(fā)展,這得益于機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步以及計(jì)算設(shè)備性能的提升。英偉達(dá)公司研發(fā)的圖形處理器(Graphics Processing Unit,GPU),無疑為深度學(xué)習(xí)的發(fā)展提供了強(qiáng)有力的硬件支撐!

英偉達(dá)想必大家都有所耳聞,但對(duì)英偉達(dá)開發(fā)的深度學(xué)習(xí)訓(xùn)練系統(tǒng)(NVIDIA Deep Learning GPU Training System, DIGITS) 知之甚少,今天我們介紹如何使用DIGITS,實(shí)現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)的圖像分類,包括數(shù)據(jù)集創(chuàng)建、模型創(chuàng)建、模型訓(xùn)練、模型測(cè)試等等。

面對(duì)眾多的深度學(xué)習(xí)開發(fā)框架,你是不是安裝配置深度學(xué)習(xí)開發(fā)框架環(huán)境中,是不是苦于碼代碼、調(diào)試改Bug中。那么,今天你將發(fā)現(xiàn),世界上還有一款超級(jí)簡(jiǎn)單易用的深度學(xué)習(xí)平臺(tái)工具,是的,這就是DIGITS。說到底,DIGITS是對(duì)現(xiàn)有流行深度學(xué)習(xí)開發(fā)框架的最高級(jí)的抽象封裝,你所需做的只不過是點(diǎn)點(diǎn)按鈕、改改參數(shù),就能輕松實(shí)現(xiàn)基于深度學(xué)習(xí)模型的圖像分類、目標(biāo)檢測(cè)、分割等任務(wù),并以圖形界面的方式展現(xiàn)出來。目前DIGITS支持 Caffe、Torch,7月份將開始支持Tensorflow,開發(fā)人員,正在努力工作,使其支持更多的深度學(xué)習(xí)框架,如下圖所示:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

DIGITS支持的深度學(xué)習(xí)框架(來自英偉達(dá)官網(wǎng))

下面,讓我們一起學(xué)習(xí)如何使用DIGITS,實(shí)現(xiàn)基于深度卷積網(wǎng)絡(luò)的手寫體圖像分類任務(wù),讓我們一起成為人工智能時(shí)代的弄潮兒!

  DIGITS安裝

由于本文重點(diǎn)介紹如何使用DIGITS實(shí)現(xiàn)深度學(xué)習(xí)圖像分類,這里僅給出安裝參考與注意事項(xiàng)。

現(xiàn)今,DIGITS已經(jīng)有了三種安裝姿勢(shì):

● Ubuntu 包管理器

● Docker

● 源碼編譯

具體請(qǐng)移步 NVIDIA DIGITS Installation。2015年時(shí),DIGITS出道時(shí)還只有源碼安裝方式,時(shí)隔一年竟然有了 deb 安裝方式,果斷試用,按照官方說明分分鐘安裝完畢~.~

注:Ubuntu16.04下安裝Caffe,會(huì)有比較多的坑,跳進(jìn)去再跳出來就行了,不過,對(duì)于初學(xué)者,可能得幾個(gè)小時(shí),甚至幾天的時(shí)間才能跳出來。

無論哪種安裝姿勢(shì),都要確保有以下核心實(shí)料:

● 裝有GPU卡的PC機(jī)(有服務(wù)器更好);

● Linux系統(tǒng)(建議Ubuntu,本文 Ubuntu16.04 LTS);

● CUDA驅(qū)動(dòng)(本文版本8.0,Linux版有 run 和 deb 兩種安裝包,前者需要卸載系統(tǒng)自帶驅(qū)動(dòng),一不小心可能就進(jìn)不去圖形界面了,需謹(jǐn)慎 ,具體安裝方法,參見英偉達(dá)官方安裝手冊(cè))或自行搜索;

● 深度學(xué)習(xí)框架:如 Caffe, CNTK, TensorFlow, Theano and Torch 等其中的一種或多種(目前支持Caffe和Torch);

● DIGITS

Ubuntu deb 包安裝

很簡(jiǎn)單,打開終端(快捷鍵 Ctrl + Alt + T),執(zhí)行如下命令,既可以自動(dòng)安裝 digits, caffe-nv, torch7-nv, libcudnn,其中,xxx-nv 是指英偉達(dá) fork 的xxx框架版本。具體安裝方法,參見:DIGITS Ubuntu Installation。

DIGITS Ubuntu deb 安裝命令

#添加源

# For Ubuntu 16.04

CUDA_REPO_PKG=http://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/cuda-repo-ubuntu1604_8.0.61-1_amd64.deb

ML_REPO_PKG=http://developer.download.nvidia.com/compute/machine-learning/repos/ubuntu1604/x86_64/nvidia-machine-learning-repo-ubuntu1604_1.0.0-1_amd64.deb


# Install repo packages

wget "$CUDA_REPO_PKG" -O /tmp/cuda-repo.deb && sudo dpkg -i /tmp/cuda-repo.deb && rm -f /tmp/cuda-repo.deb

wget "$ML_REPO_PKG" -O /tmp/ml-repo.deb && sudo dpkg -i /tmp/ml-repo.deb && rm -f /tmp/ml-repo.deb


# Download new list of packages

sudo apt-get update

# Install 

sudo apt-get install digits

源碼安裝

DIGITS的源碼可以在GitHub上找到,即這里:GitHub DIGITS,具體編譯構(gòu)建安裝過程參見:NVIDIA DIGITS Source Installation。

提示:

安裝過程若提示錯(cuò)誤:ImportError: No module named setuptools 可以使用 sudo apt install python-setuptools 解決。

cd ~/sfw

git clone https://github.com/NVIDIA/DIGITS.git

  DIGITS使用入門

終于可以開始使用DIGITS了,首先打開你的瀏覽器,然后:

● 對(duì)于使用deb包安裝的童鞋,在瀏覽器地址欄輸入 http://localhost/ 訪問 DIGITS server 主頁;

● 對(duì)于采用其他安裝方式(using digits-devserver)的童鞋,在瀏覽器地址欄輸入 http://localhost:5000/ 訪問 DIGITS server 主頁;

現(xiàn)在開始吧!DIGITS server主頁界面如下,可見使用DIGITS做深度學(xué)習(xí)應(yīng)用,非常簡(jiǎn)單明了人性化,就是點(diǎn)點(diǎn)按鈕的事;點(diǎn)擊圖中Images下拉菜單按鈕,可以看到,如今DIGITS已經(jīng)支持 圖像預(yù)處理、分類、目標(biāo)識(shí)別、分割:等多種學(xué)習(xí)任務(wù)。

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

DIGITS Server Home 頁簡(jiǎn)介

廢話少說,開始正題,使用 DIGITS ,基本分三步:

● 第一步:準(zhǔn)備并創(chuàng)建數(shù)據(jù)集

● 第二步:設(shè)計(jì)并創(chuàng)建任務(wù)模型

● 第三步:訓(xùn)練測(cè)試模型

下面以手寫體分類為例,說明如何利用 DIGITS,輕松實(shí)現(xiàn)基于深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)的圖像分類任務(wù)。

  使用DIGITS實(shí)現(xiàn)基于深度學(xué)習(xí)的圖像分類

● 數(shù)據(jù)集:手寫體數(shù)據(jù)集 MNIST:含 0~9 十個(gè)數(shù)字,60000個(gè)訓(xùn)練樣本,10000個(gè)測(cè)試樣本;

● 網(wǎng)絡(luò)模型:卷積神經(jīng)網(wǎng)絡(luò) LeNet-5:一種卷積神經(jīng)網(wǎng)絡(luò)。

詳情參見 Yann LeCun 主頁。

下載MNIST數(shù)據(jù)集

你可訪問上述數(shù)據(jù)集鏈接下載并解壓數(shù)據(jù),也可以使用 DIGITS 提供的數(shù)據(jù)集下載工具直接下載解壓數(shù)據(jù),數(shù)據(jù)會(huì)被下載到你指定的目錄下(yourdir),本文中:

python -m digits.download_data mnist ~/yourdir/mnist

下載完成后,在你指定的目錄下可以看到如下文件:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

創(chuàng)建數(shù)據(jù)集

在DIGITS server Home頁,以此選擇 Datasets > New Dataset > Images > Classification ,然后隨便取個(gè)用戶名(username),提交(Submit),在彈出的頁面中,按下圖所示填寫數(shù)據(jù)集信息。

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

DIGITS MNIST 數(shù)據(jù)集創(chuàng)建頁面

創(chuàng)建完成后,可以在MNIST數(shù)據(jù)集頁面查看驗(yàn)證數(shù)據(jù)集信息,如下圖所示:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

創(chuàng)建好的MNIST數(shù)據(jù)集頁面

創(chuàng)建好的MNIST數(shù)據(jù)集的訓(xùn)練集統(tǒng)計(jì)信息如下圖所示:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

訓(xùn)練集統(tǒng)計(jì)信息——頻率直方圖

創(chuàng)建模型

我們使用經(jīng)典的LeNet模型來實(shí)現(xiàn)手寫體圖像的分類,LeNet是一個(gè)卷積神經(jīng)網(wǎng)絡(luò),它依次包含一個(gè)輸入層(INPUT)、卷積層(C1)、池化層,也叫下采樣層(S2)、卷積層(C3)、下采樣層(S4)、卷積層(C5)、全連接層(F6)和一個(gè)輸出層,由于有0~9個(gè)數(shù)字,所以輸出層的神經(jīng)元的個(gè)數(shù)是10。這么復(fù)雜的結(jié)構(gòu),寶寶得寫多少行代碼,寶寶不想當(dāng)程序猿 ~,~

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

用于手寫體分類的LeNet網(wǎng)絡(luò)結(jié)構(gòu)

然而,你不用擔(dān)心,使用DIGITS,你只需要點(diǎn)點(diǎn)按鈕,改改參數(shù)即可,由于是經(jīng)典模型,這里連該參數(shù)都不用,點(diǎn)按鈕就行了。點(diǎn)擊左上角的 DIGITS 按鈕,返回主頁,此時(shí),可以看到數(shù)據(jù)集(DataSets)頁面多了個(gè)剛剛創(chuàng)建的MNIST數(shù)據(jù)集。依次選擇 Models > New Model > Images > Classification 彈出模型設(shè)置界面,依次按如下步驟操作:

● 在Select Dataset 區(qū)選擇 “MNIST” 數(shù)據(jù)集;

● 在下面的Standard Networks 標(biāo)簽頁選擇Caffe 版的 LeNet network;

● 選擇GPU;

● 給模型命個(gè)名字;

● 點(diǎn)擊 Create 按鈕創(chuàng)建模型

如下圖所示:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

用于手寫體分類的LeNet網(wǎng)絡(luò)模型訓(xùn)練與測(cè)試設(shè)置

當(dāng)然,你也可以設(shè)置訓(xùn)練代數(shù)、驗(yàn)證間隔(代數(shù))、優(yōu)化方法、學(xué)習(xí)率等參數(shù)。

訓(xùn)練模型

創(chuàng)建完模型后,DIGITS 開始網(wǎng)絡(luò)的訓(xùn)練,并實(shí)時(shí)顯示訓(xùn)練損失、驗(yàn)證損失、驗(yàn)證正確率、學(xué)習(xí)率變化、GPU資源占用等信息,如下圖所示,非常直觀和友好,有木有,~.~

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

DIGITS MNIST LeNet分類網(wǎng)絡(luò)訓(xùn)練過程圖

喝杯咖啡,或出去溜達(dá)溜達(dá)即可!

測(cè)試

現(xiàn)在到了測(cè)試你的模型的時(shí)候了,如下圖所示,有三種選擇:

● Classify One:?jiǎn)畏鶊D像分類,可以可視化數(shù)據(jù)、權(quán)重、隱藏層輸出等;

● Classify Many:多幅圖像分類,可以查看多幅圖像的分類結(jié)果統(tǒng)計(jì)信息;

● Top N Predictions per Category:每類的Top N分類預(yù)測(cè)圖示。

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

測(cè)試你的手寫體分類模型

上述手寫體分類模型,對(duì)數(shù)字6的某幅圖像分類結(jié)果如下圖所示,非常直觀友好有木有,寶寶瞬間喜歡上人工智能了耶:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

上述手寫體分類模型,對(duì)10000個(gè)測(cè)試樣本圖像的分類統(tǒng)計(jì)結(jié)果如下圖所示,哇,這么高大上的矩陣我也有了:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

上述手寫體分類模型,Top N分類統(tǒng)計(jì)結(jié)果如下圖所示,寶寶決定要搞深度了,誰都不能阻擋我:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

  后記

本文介紹了 DIGITS 及其安裝,以及使用 DIGITS 進(jìn)行圖像分類的步驟與方法,包括數(shù)據(jù)集的創(chuàng)建、模型的創(chuàng)建與訓(xùn)練、模型測(cè)試等等??偨Y(jié)起來,使用DIGITS做深度學(xué)習(xí)應(yīng)用,簡(jiǎn)直就是點(diǎn)點(diǎn)點(diǎn),免去了使用Caffe等其它框架繁瑣的環(huán)境配置、枯燥的碼代碼 Debug 的過程,你不需要去學(xué)習(xí)Python等語言,你甚至都不需要了解模型算法原理,就能輕松享受深度學(xué)習(xí)的樂趣,這一切 DIGITS 都已經(jīng)為你做好,簡(jiǎn)直太爽啦!~.~ ~.~ ~.~

如果你不是程序猿,如果你不了解深度學(xué)習(xí),如果你不知道選擇何種深度學(xué)習(xí)框架,如果你不想把精力耗費(fèi)在碼代碼上,而你卻非常想了解深度學(xué)習(xí),以至于你想成為人工智能時(shí)代的弄潮兒,那么DIGITS是你最好的入門選擇!生活原本很簡(jiǎn)單,為什么要過得復(fù)雜呢?

如果你已經(jīng)迫不及待地想在 DIGITS 上一試身手,如果你想找個(gè)深度學(xué)習(xí)“老司機(jī)”領(lǐng)路,如果你有諸多深度學(xué)習(xí)技術(shù)相關(guān)的難題有待解決,那么這里正好有個(gè)絕佳的機(jī)會(huì):

7 月 8 日,在第二屆 CCF-GAIR 2017 全球人工智能與機(jī)器人峰會(huì)上(詳情鏈接),雷鋒網(wǎng)將聯(lián)合英偉達(dá)深度學(xué)習(xí)學(xué)院(Deep Learning Institute,DLI),面向 AI 技術(shù)從業(yè)者,特別推出一個(gè)深度學(xué)習(xí)開發(fā)者專場(chǎng)。對(duì)深度學(xué)習(xí)和英偉達(dá) GPU 加速感興趣的開發(fā)者們,可以通過這次活動(dòng)跟英偉達(dá)官方認(rèn)證工程師來一次面對(duì)面的技術(shù)暢談。

具體議程安排如下:

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

目前,開發(fā)者專場(chǎng)門票正在火熱售賣中,只需 999元 即可獲得與英偉達(dá)官方深度學(xué)習(xí)團(tuán)隊(duì)現(xiàn)場(chǎng)交流的機(jī)會(huì),數(shù)量有限,售完即止,各位對(duì)深度學(xué)習(xí)感興趣的 AI 從業(yè)者們千萬不可錯(cuò)過?。?span style="line-height: 1.8;">悄悄告訴你,使用優(yōu)惠碼還有 200元 折扣哦)

優(yōu)惠碼:

1024MOOC64155

1024MOOC58424

購買鏈接:

http://www.mooc.ai/course/90

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

不用寫代碼就能實(shí)現(xiàn)深度學(xué)習(xí)?手把手教你用英偉達(dá) DIGITS 解決圖像分類問題

分享:
相關(guān)文章

編輯

聚焦數(shù)據(jù)科學(xué),連接 AI 開發(fā)者。更多精彩內(nèi)容,請(qǐng)?jiān)L問:yanxishe.com
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說