0
本文作者: AI慕課學院 | 2017-04-27 18:08 |
2015年,谷歌深度學習系統(tǒng) TensorFlow 在工程師圈中引起了很大反響,其開源大大降低了深度學習在各行業(yè)中的應用難度,深度神經(jīng)網(wǎng)絡在很多傳統(tǒng)機器學習數(shù)據(jù)集上體現(xiàn)出優(yōu)勢。
但如何將深度學習技術,實現(xiàn)圖片識別、文本分析等模型,運用到實際的系統(tǒng)中,還有很多要做的事情。
面對人工智能領域的技術及人才需求,如果你對近幾年研究熱點如 Convolutional GRU, Seq2Seq with Attention,生成式對抗網(wǎng)絡(GAN), 以及強化學習相關內容很感興趣!如果你想了解大牛對經(jīng)典神經(jīng)網(wǎng)絡結構如 CNN、RNN/LSTM 的分析!如果你想學習圖像風格融合、聊天機器人等項目實戰(zhàn)的經(jīng)驗!
雷鋒網(wǎng)AI慕課學院誠邀您報名 Tensorflow & 神經(jīng)網(wǎng)絡算法高級應用班,看 ThoughtWorks 大牛更多秀出代碼,拒絕枯燥的理論講解,減少數(shù)學公式!
經(jīng)典深度神經(jīng)網(wǎng)絡結構
卷積神經(jīng)網(wǎng)絡(CNN)
遞歸神經(jīng)網(wǎng)絡(RNN/LSTM)
近幾年研究的熱點,如
Convolutional GRU,
Seq2Seq with Attention
生成式對抗網(wǎng)絡(GAN)
強化學習相關內容
在課程的進行過程中,會有如圖像風格融合、聊天機器人等實戰(zhàn)項目,避免枯燥的理論講解,減少數(shù)學公式,更多秀出代碼,讓傳統(tǒng)軟件開發(fā)工程師做好準備,應對人工智能時代的到來!
白發(fā)川 ThoughtWorks 資深數(shù)據(jù)專家。長期從事大數(shù)據(jù)處理相關工作,曾負責設計和實現(xiàn)“金融,工業(yè),互聯(lián)網(wǎng)”等多個領域的大數(shù)據(jù)平臺建設和數(shù)據(jù)處理。對海量數(shù)據(jù)下的“存儲,處理,多維分析”有著相當豐富的經(jīng)驗。
佟達 ThoughtWorks 高級咨詢師。中國區(qū)數(shù)據(jù)團隊資深技術專家,專注于深度學習與智能系統(tǒng)的設計和發(fā),對于深度學習、大數(shù)據(jù)架構、云計算、DevOps 等有深入研究,致力于將學術界先進的 AI 技術轉化為工程應用。
學過編程/微積分/線代,有一定的數(shù)據(jù)結構/算法基礎
需要學習使用tensorflow框架,并且想深入學習
習慣使用 tensorflow ,對機器學習有所了解,想進一步提高自己
時間:每周二、四 20:00-21:00(節(jié)假日順延)
總學時 20 小時,分 10 周完成;每周2次,每次 1個小時
授課形式:線上視頻直播授課
優(yōu)惠期報名價:2699元(4.20-4.25)
三人及以上團報價:2099元
1、點擊授課地址,直接進行報名。
授課地址:http://m.ozgbdpf.cn/special/custom/mooc04.html
2、若有疑問,登錄AI慕課學院官網(wǎng)mooc.ai或添加客服小慕微信(moocmm)進行咨詢
AI慕課學院專注于人工智能人才培訓,旨在為人工智能領域的創(chuàng)新企業(yè)提供符合企業(yè)需求的復合型人才,也是雷鋒網(wǎng)“連接三界(學術界、產(chǎn)業(yè)界、投資界)”的重要一環(huán)。
AI慕課學院致力于進一步推動人工智能核心技術的科研成果轉換和產(chǎn)業(yè)化,匯集行業(yè)知名專家,結合產(chǎn)業(yè)特色,為高校學生、人工智能愛好者和從業(yè)者、科技行業(yè)職業(yè)人群提供低學習門檻的人工智能培訓課程,就機器學習、模式識別、數(shù)據(jù)挖掘、自然語言處理、計算機視覺、人機交互等人工智能相關主題進行研討和授課,為學習者提供系統(tǒng)的進階教育。
通過雷鋒網(wǎng)的資源,AI 慕課將與國內外知名高校和產(chǎn)業(yè)界標桿企業(yè)進行合作,不斷增加課程的種類和豐富程度。
相關文章:
萬事開頭難!入門TensorFlow,這9個問題TF Boys 必須要搞清楚
TensorFlow在工程項目中的應用 公開課視頻+文字轉錄(上) | AI 研習社
TensorFlow在工程項目中的應用 公開課視頻+文字轉錄(下) | AI 研習社
這才是 TensorFlow 自帶可視化工具 TensorBoard 的正確打開方式?。ǜ巾椖吭创a)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。