1
本文作者: AI慕課學院 | 2018-01-29 16:50 |
本文英文出處:Robbie Allen
翻譯/雷鋒網(wǎng)字幕組 吳楚
校對/ 雷鋒網(wǎng) 田晉陽
機器學習的發(fā)展可以追溯到1959年,有著豐富的歷史。這個領域也正在以前所未有的速度進化。在之前的一篇文章中,我們討論過為什么通用人工智能領域即將要爆發(fā)。有興趣入坑ML的小伙伴不要拖延了,時不我待!
在今年秋季開始準備博士項目的時候,我已經(jīng)精選了一些有關機器學習和NLP的優(yōu)質(zhì)網(wǎng)絡資源。一般我會找一個有意思的教程或者視頻,再由此找到三四個,甚至更多的教程或者視頻。猛回頭,發(fā)現(xiàn)標收藏夾又多了20個資源待我學習(推薦提升效率工具Tab Bundler)。
找到超過25個有關ML的“小抄”后,我寫一篇博文,里面的資源都有超鏈接。
為了幫助也在經(jīng)歷類似探索過程的童鞋,我把至今發(fā)現(xiàn)的最好的教程匯總了一個列表。當然這不是網(wǎng)絡上有關ML的最全集合,而且其中有一部分內(nèi)容很普通。我的目標是要找到最好的有關機器學習子方向和NLP的教程。
我引用了能簡潔介紹概念的基礎內(nèi)容。我已經(jīng)回避包含一些大部頭書的章節(jié),和對理解概念沒有幫助的科研論文。那為什么不買一本書呢? 因為教程能更好地幫助你學一技之長或者打開新視野。
我把這博文分成四個部分,機器學習,NLP,Python,和數(shù)學基礎。在每一小節(jié)我會隨機引入一些問題。由于這方面學習材料太豐富了,本文并未涵括所有內(nèi)容。
機器學習
1、機器學習就是這么好玩!(medium.com/@ageitgey)
機器學習速成課程(Berkeley的ML):
Part I:https://ml.berkeley.edu/blog/2016/11/06/tutorial-1/
Part II:https://ml.berkeley.edu/blog/2016/12/24/tutorial-2/
Part III:https://ml.berkeley.edu/blog/2017/02/04/tutorial-3/
2、Activation and Loss Functions
激活函數(shù)與損失函數(shù)
sigmoid 神經(jīng)元 (neuralnetworksanddeeplearning.com)
激活函數(shù)在神經(jīng)網(wǎng)絡中有什么作用?(quora.com)
神經(jīng)網(wǎng)絡的激活函數(shù)大全及其優(yōu)劣 (stats.stackexchange.com)
損失函數(shù)L1 與L2 比較(rishy.github.io)
交叉熵損失函數(shù)(neuralnetworksanddeeplearning.com)
3、偏差(Bias)
神經(jīng)網(wǎng)絡中的偏差的作用(stackoverflow.com)
神經(jīng)網(wǎng)絡中的偏差節(jié)點(makeyourownneuralnetwork.blogspot.com)
什么是人工神經(jīng)網(wǎng)絡中的偏差 (quora.com)
4、感知器(Perceptron)
感知器模型(neuralnetworksanddeeplearning.com)
一層的神經(jīng)網(wǎng)絡(感知器模型)(dcu.ie)
5、回歸算法
機器學習之簡單線性回歸教程(machinelearningmastery.com)
機器學習之邏輯斯特回歸教程(machinelearningmastery.com)
softmax 回歸(ufldl.stanford.edu)
6、梯度下降
基于梯度下降的學習 (neuralnetworksanddeeplearning.com)
梯度下降優(yōu)化算法概覽(sebastianruder.com)
優(yōu)化算法:隨機梯度下降算法 (Stanford CS231n)
7、生成學習
8、支持向量機
線性分類:支持向量機,Softmax (Stanford 231n)
9、后向傳播算法(Backpropagation)
后向傳播算法必知(medium.com/@karpathy)
來,給我圖解一下神經(jīng)網(wǎng)絡后向傳播算法?(github.com/rasbt)
后向傳播算法是如何運行的?(neuralnetworksanddeeplearning.com)
簡易入門沿時后向傳播算法(machinelearningmastery.com)
10、深度學習
深度學習,什么鬼?(machinelearningmastery.com)
什么是人工智能,機器學習,深度學習之間的區(qū)別? (nvidia.com)
11、優(yōu)化算法與降維算法
數(shù)據(jù)降維的七招煉金術(knime.org)
Dropout: 改進神經(jīng)網(wǎng)絡的一個簡單方法(Hinton @ NIPS 2012)
如何溜你們家的深度神經(jīng)網(wǎng)絡?(rishy.github.io)
12、長短期記憶(LSTM)
老司機帶你簡易入門長短期神經(jīng)網(wǎng)絡(machinelearningmastery.com)
理解LSTM網(wǎng)絡(colah.github.io)
小學生看完這教程都可以用Python實現(xiàn)一個LSTM-RNN (iamtrask.github.io)
13、卷積神經(jīng)網(wǎng)絡(CNNs)
卷積網(wǎng)絡入門(neuralnetworksanddeeplearning.com)
深度學習與卷積神經(jīng)網(wǎng)絡模型(medium.com/@ageitgey)
拆解卷積網(wǎng)絡模型(colah.github.io)
14、遞歸神經(jīng)網(wǎng)絡(RNNs)
遞歸神經(jīng)網(wǎng)絡教程 (wildml.com)
注意力模型與增強型遞歸神經(jīng)網(wǎng)絡(distill.pub)
這么不科學的遞歸神經(jīng)網(wǎng)絡模型(karpathy.github.io)
深入遞歸神經(jīng)網(wǎng)絡模型(nikhilbuduma.com)
15、強化學習
給小白看的強化學習及其實現(xiàn)指南 (analyticsvidhya.com)
深度強化學習:開掛玩Pong (karpathy.github.io)
16、對抗式生成網(wǎng)絡模型(GANs)
什么是對抗式生成網(wǎng)絡模型?(nvidia.com)
用對抗式生成網(wǎng)絡創(chuàng)造8個像素的藝術(medium.com/@ageitgey)
對抗式生成網(wǎng)絡入門(TensorFlow)(aylien.com)
《對抗式生成網(wǎng)絡》(小學一年級~上冊)(oreilly.com)
17、多任務學習
深度神經(jīng)網(wǎng)絡中的多任務學習概述(sebastianruder.com)
NLP
1、NLP
《基于神經(jīng)網(wǎng)絡模型的自然語言處理》(小學一年級~上冊)(Yoav Goldberg)
Natural Language Processing (almost) from Scratch (arxiv.org)
2、深度學習和 NLP
理解卷積神經(jīng)網(wǎng)絡在NLP中的應用(wildml.com)
深度學習,NLP,表示學習(colah.github.io)
嵌入表示,編碼,注意力,預測 : 新一代深度學習因NLP的精妙而存在(explosion.ai)
理解基于神經(jīng)網(wǎng)絡的自然語言處理(Torch實現(xiàn)) (nvidia.com)
深度學習在NLP中的應用(Pytorch實現(xiàn)) (pytorich.org)
3、詞向量(Word Vectors)
學習單詞嵌入表示法(sebastianruder.com)
Part I:http://sebastianruder.com/word-embeddings-1/index.html
Part II:http://sebastianruder.com/word-embeddings-softmax/index.html
Part III:http://sebastianruder.com/secret-word2vec/index.html
解釋word2vec 的參數(shù)學習(arxiv.org)
word2vec教程 skip-gram 模型,負采樣(mccormickml.com)
4、Encoder-Decoder
注意力機制與記憶機制在深度學習與NLP中的應用(wildml.com)
利用神經(jīng)網(wǎng)絡學習序列到序列模型(NIPS 2014)
基于深度學習和魔法序列的語言翻譯(medium.com/@ageitgey)
如何使用編碼-解碼LSTM輸出隨機整數(shù)對應的序列(machinelearningmastery.com)
Python
1、Python
使用Python精通機器學習的七步法(kdnuggets.com)
機器學習的一個簡例(nbviewer.jupyter.org)
2、實例
小白如何用python實現(xiàn)感知器算法(machinelearningmastery.com)
小學生用python實現(xiàn)一個神經(jīng)網(wǎng)絡(wildml.com)
只用11行python代碼實現(xiàn)一個神經(jīng)網(wǎng)絡算法(iamtrask.github.io)
自己動手用ptython實現(xiàn)最近鄰算法(kdnuggets.com)
python實現(xiàn)長短期記憶網(wǎng)絡的記憶機制(machinelearningmastery.com)
如何用長短期記憶遞歸神經(jīng)網(wǎng)絡輸出隨機整數(shù)(machinelearningmastery.com)
如何用seq2seq遞歸神經(jīng)網(wǎng)絡學習加法運算(machinelearningmastery.com)
3、Scipy 和 numpy
Python Numpy 教程(Stanford CS231n)
Numpy 與 Scipy 入門(UCSB CHE210D)
給科學家看的Python微課程(nbviewer.jupyter.org)
4、scikit-learn
PyCon會議上的Scik-learn 教程(nbviewer.jupyter.org)
Scikit-learn 中的分類算法(github.com/mmmayo13)
Scikit-learn教程(scikit-learn.org)
簡明版Scikit-learn教程(github.com/mmmayo13)
5、Tensorflow
(medium.com/@erikhallstrm)
Tensorflow實現(xiàn)RNNs (wildml.com)
Tensorflow實現(xiàn)文本分類CNN模型(wildml.com)
如何用Tensorflow做文本摘要(surmenok.com)
6、PyTorch
利用Pytorch深度學習教程(iamtrask.github.io)
Pytorch實戰(zhàn)(github.com/jcjohnson)
PyTorch 教程(github.com/MorvanZhou)
深度學習研究人員看的PyTorch教程(github.com/yunjey)
數(shù)學
1、機器學習中的數(shù)學 (ucsc.edu)
https://people.ucsc.edu/~praman1/static/pub/math-for-ml.pdf
2、線性代數(shù)
線性代數(shù)簡明指南(betterexplained.com)
碼農(nóng)眼中矩陣乘法 (betterexplained.com)
機器學習中的線性代數(shù)(U. of Buffalo CSE574)
復習線性代數(shù)與課后閱讀材料(Stanford CS229)
3、概率論
機器學習中的概率論(U. of Toronto CSC411)
4、計算方法(Calculus)
如何理解導數(shù):求導法則,指數(shù)和算法(betterexplained.com)
如何理解導數(shù),乘法,冪指數(shù),鏈式法(betterexplained.com)
向量計算,理解梯度(betterexplained.com)
為幫助對自然語言處理感興趣的同學快速高效入門,雷鋒網(wǎng)AI慕課學院特邀新加坡南洋理工大學博士玖強老師,為大家?guī)?a target="_blank" rel=nofollow>《NLP工程師入門實踐班:基于深度學習的自然語言處理》,課程包含NLP三大知識模塊,算法理論+案例實訓,搭配典型行業(yè)應用,層層遞進,直通自然語言處理的本質(zhì)及其應用!
早鳥價799元倒計時3天??!
更有組團優(yōu)惠,4人成團每人優(yōu)惠200元,快來組團報名吧!
AI慕課學院近期推出了《NLP工程師入門實踐班:基于深度學習的自然語言處理》課程!
三大模塊,五大應用,海外博士講師手把手教你入門NLP,更有豐富項目經(jīng)驗相授;算法+實踐,搭配典型行業(yè)應用;隨到隨學,專業(yè)社群,講師在線答疑!
課程地址:http://www.mooc.ai/course/427
加入AI慕課學院人工智能學習交流QQ群:624413030,與AI同行一起交流成長
相關文章:
一文看懂中美AI產(chǎn)業(yè)布局,美國領銜芯片、算法、NLP領域|雷報047期
雷峰網(wǎng)版權文章,未經(jīng)授權禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。