丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能開發(fā)者 正文
發(fā)私信給汪思穎
發(fā)送

0

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

本文作者: 汪思穎 2018-03-20 14:24
導(dǎo)語(yǔ):本術(shù)語(yǔ)表中列出了一般的機(jī)器學(xué)習(xí)術(shù)語(yǔ)和 TensorFlow 專用術(shù)語(yǔ)的定義。

雷鋒網(wǎng) AI 研習(xí)社按,日前,谷歌發(fā)布機(jī)器學(xué)習(xí)術(shù)語(yǔ)表,AI 研習(xí)社獲其授權(quán)轉(zhuǎn)載。以下術(shù)語(yǔ)表中列出了一般的機(jī)器學(xué)習(xí)術(shù)語(yǔ)和 TensorFlow 專用術(shù)語(yǔ)的定義。本文為 M-W(術(shù)語(yǔ)首字母)部分,A-L 部分參見干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(上)

M

機(jī)器學(xué)習(xí) (machine learning)

一種程序或系統(tǒng),用于根據(jù)輸入數(shù)據(jù)構(gòu)建(訓(xùn)練)預(yù)測(cè)模型。這種系統(tǒng)會(huì)利用學(xué)到的模型根據(jù)從分布(訓(xùn)練該模型時(shí)使用的同一分布)中提取的新數(shù)據(jù)(以前從未見過的數(shù)據(jù))進(jìn)行實(shí)用的預(yù)測(cè)。機(jī)器學(xué)習(xí)還指與這些程序或系統(tǒng)相關(guān)的研究領(lǐng)域。

均方誤差 (MSE, Mean Squared Error)

每個(gè)樣本的平均平方損失。MSE 的計(jì)算方法是平方損失除以樣本數(shù)。TensorFlow Playground 顯示的“訓(xùn)練損失”值和“測(cè)試損失”值都是 MSE。

指標(biāo) (metric)

您關(guān)心的一個(gè)數(shù)值??赡芸梢砸部赡懿豢梢灾苯釉跈C(jī)器學(xué)習(xí)系統(tǒng)中得到優(yōu)化。您的系統(tǒng)嘗試優(yōu)化的指標(biāo)稱為目標(biāo)。

Metrics API (tf.metrics)

一種用于評(píng)估模型的 TensorFlow API。例如,tf.metrics.accuracy 用于確定模型的預(yù)測(cè)與標(biāo)簽匹配的頻率。在編寫自定義 Estimator 時(shí),您可以調(diào)用 Metrics API 函數(shù)來(lái)指定應(yīng)如何評(píng)估您的模型。

小批次 (mini-batch)

從訓(xùn)練或推斷過程的一次迭代中一起運(yùn)行的整批樣本內(nèi)隨機(jī)選擇的一小部分。小批次的規(guī)模通常介于 10 到 1000 之間。與基于完整的訓(xùn)練數(shù)據(jù)計(jì)算損失相比,基于小批次數(shù)據(jù)計(jì)算損失要高效得多。

小批次隨機(jī)梯度下降法 (SGD, mini-batch stochastic gradient descent)

一種采用小批次樣本的梯度下降法。也就是說(shuō),小批次 SGD 會(huì)根據(jù)一小部分訓(xùn)練數(shù)據(jù)來(lái)估算梯度。Vanilla SGD 使用的小批次的規(guī)模為 1。

ML

機(jī)器學(xué)習(xí)的縮寫。

模型 (model)

機(jī)器學(xué)習(xí)系統(tǒng)從訓(xùn)練數(shù)據(jù)學(xué)到的內(nèi)容的表示形式。多含義術(shù)語(yǔ),可以理解為下列兩種相關(guān)含義之一:

  • 一種 TensorFlow 圖,用于表示預(yù)測(cè)計(jì)算結(jié)構(gòu)。

  • 該 TensorFlow 圖的特定權(quán)重和偏差,通過訓(xùn)練決定。

模型訓(xùn)練 (model training)

確定最佳模型的過程。

動(dòng)量 (Momentum)

一種先進(jìn)的梯度下降法,其中學(xué)習(xí)步長(zhǎng)不僅取決于當(dāng)前步長(zhǎng)的導(dǎo)數(shù),還取決于之前一步或多步的步長(zhǎng)的導(dǎo)數(shù)。動(dòng)量涉及計(jì)算梯度隨時(shí)間而變化的指數(shù)級(jí)加權(quán)移動(dòng)平均值,與物理學(xué)中的動(dòng)量類似。動(dòng)量有時(shí)可以防止學(xué)習(xí)過程被卡在局部最小的情況。

多類別分類 (multi-class classification)

區(qū)分兩種以上類別的分類問題。例如,楓樹大約有 128 種,因此,確定楓樹種類的模型就屬于多類別模型。反之,僅將電子郵件分為兩類(“垃圾郵件”和“非垃圾郵件”)的模型屬于二元分類模型。

多項(xiàng)分類 (multinomial classification)

是多類別分類的同義詞。

N

NaN 陷阱 (NaN trap)

模型中的一個(gè)數(shù)字在訓(xùn)練期間變成 NaN,這會(huì)導(dǎo)致模型中的很多或所有其他數(shù)字最終也會(huì)變成 NaN。

NaN 是“非數(shù)字”的縮寫。

負(fù)類別 (negative class)

在二元分類中,一種類別稱為正類別,另一種類別稱為負(fù)類別。正類別是我們要尋找的類別,負(fù)類別則是另一種可能性。例如,在醫(yī)學(xué)檢查中,負(fù)類別可以是“非腫瘤”。在電子郵件分類器中,負(fù)類別可以是“非垃圾郵件”。另請(qǐng)參閱正類別。

神經(jīng)網(wǎng)絡(luò) (neural network)

一種模型,靈感來(lái)源于腦部結(jié)構(gòu),由多個(gè)層構(gòu)成(至少有一個(gè)是隱藏層),每個(gè)層都包含簡(jiǎn)單相連的單元或神經(jīng)元(具有非線性關(guān)系)。

神經(jīng)元 (neuron)

神經(jīng)網(wǎng)絡(luò)中的節(jié)點(diǎn),通常是接收多個(gè)輸入值并生成一個(gè)輸出值。神經(jīng)元通過將激活函數(shù)(非線性轉(zhuǎn)換)應(yīng)用于輸入值的加權(quán)和來(lái)計(jì)算輸出值。

節(jié)點(diǎn) (node)

多含義術(shù)語(yǔ),可以理解為下列兩種含義之一:

  • 隱藏層中的神經(jīng)元。

  • TensorFlow 圖中的操作。

標(biāo)準(zhǔn)化 (normalization)

將實(shí)際的值區(qū)間轉(zhuǎn)換為標(biāo)準(zhǔn)的值區(qū)間(通常為 -1 到 +1 或 0 到 1)的過程。例如,假設(shè)某個(gè)特征的自然區(qū)間是 800 到 6000。通過減法和除法運(yùn)算,您可以將這些值標(biāo)準(zhǔn)化為位于 -1 到 +1 區(qū)間內(nèi)。

另請(qǐng)參閱縮放。

數(shù)值數(shù)據(jù) (numerical data)

用整數(shù)或?qū)崝?shù)表示的特征。例如,在房地產(chǎn)模型中,您可能會(huì)用數(shù)值數(shù)據(jù)表示房子大小(以平方英尺或平方米為單位)。如果用數(shù)值數(shù)據(jù)表示特征,則可以表明特征的值相互之間具有數(shù)學(xué)關(guān)系,并且與標(biāo)簽可能也有數(shù)學(xué)關(guān)系。例如,如果用數(shù)值數(shù)據(jù)表示房子大小,則可以表明面積為 200 平方米的房子是面積為 100 平方米的房子的兩倍。此外,房子面積的平方米數(shù)可能與房?jī)r(jià)存在一定的數(shù)學(xué)關(guān)系。

并非所有整數(shù)數(shù)據(jù)都應(yīng)表示成數(shù)值數(shù)據(jù)。例如,世界上某些地區(qū)的郵政編碼是整數(shù),但在模型中,不應(yīng)將整數(shù)郵政編碼表示成數(shù)值數(shù)據(jù)。這是因?yàn)猷]政編碼 20000 在效力上并不是郵政編碼 10000 的兩倍(或一半)。此外,雖然不同的郵政編碼確實(shí)與不同的房地產(chǎn)價(jià)值有關(guān),但我們也不能假設(shè)郵政編碼為 20000 的房地產(chǎn)在價(jià)值上是郵政編碼為 10000 的房地產(chǎn)的兩倍。郵政編碼應(yīng)表示成分類數(shù)據(jù)。

數(shù)值特征有時(shí)稱為連續(xù)特征。

Numpy

一個(gè)開放源代碼數(shù)學(xué)庫(kù),在 Python 中提供高效的數(shù)組操作。Pandas 就建立在 Numpy 之上。

O

目標(biāo) (objective)

算法嘗試優(yōu)化的指標(biāo)。

離線推斷 (offline inference)

生成一組預(yù)測(cè),存儲(chǔ)這些預(yù)測(cè),然后根據(jù)需求檢索這些預(yù)測(cè)。與在線推斷相對(duì)。

one-hot 編碼 (one-hot encoding)

一種稀疏向量,其中:

  • 一個(gè)元素設(shè)為 1。

  • 所有其他元素均設(shè)為 0。

one-hot 編碼常用于表示擁有有限個(gè)可能值的字符串或標(biāo)識(shí)符。例如,假設(shè)某個(gè)指定的植物學(xué)數(shù)據(jù)集記錄了 15000 個(gè)不同的物種,其中每個(gè)物種都用獨(dú)一無(wú)二的字符串標(biāo)識(shí)符來(lái)表示。在特征工程過程中,您可能需要將這些字符串標(biāo)識(shí)符編碼為 one-hot 向量,向量的大小為 15000。

一對(duì)多 (one-vs.-all)

假設(shè)某個(gè)分類問題有 N 種可能的解決方案,一對(duì)多解決方案將包含 N 個(gè)單獨(dú)的二元分類器 - 一個(gè)二元分類器對(duì)應(yīng)一種可能的結(jié)果。例如,假設(shè)某個(gè)模型用于區(qū)分樣本屬于動(dòng)物、蔬菜還是礦物,一對(duì)多解決方案將提供下列三個(gè)單獨(dú)的二元分類器:

  • 動(dòng)物和非動(dòng)物

  • 蔬菜和非蔬菜

  • 礦物和非礦物

在線推斷 (online inference)

根據(jù)需求生成預(yù)測(cè)。與離線推斷相對(duì)。

操作 (op, Operation)

TensorFlow 圖中的節(jié)點(diǎn)。在 TensorFlow 中,任何創(chuàng)建、操縱或銷毀張量的過程都屬于操作。例如,矩陣相乘就是一種操作,該操作以兩個(gè)張量作為輸入,并生成一個(gè)張量作為輸出。

優(yōu)化器 (optimizer)

梯度下降法的一種具體實(shí)現(xiàn)。TensorFlow 的優(yōu)化器基類是 tf.train.Optimizer。不同的優(yōu)化器(tf.train.Optimizer 的子類)會(huì)考慮如下概念:

  • 動(dòng)量 (Momentum)

  • 更新頻率 (AdaGrad = ADAptive GRADient descent; Adam = ADAptive with Momentum;RMSProp)

  • 稀疏性/正則化 (Ftrl)

  • 更復(fù)雜的計(jì)算方法 (Proximal, 等等)

甚至還包括 NN 驅(qū)動(dòng)的優(yōu)化器。

離群值 (outlier)

與大多數(shù)其他值差別很大的值。在機(jī)器學(xué)習(xí)中,下列所有值都是離群值。

  • 絕對(duì)值很高的權(quán)重。

  • 與實(shí)際值相差很大的預(yù)測(cè)值。

  • 值比平均值高大約 3 個(gè)標(biāo)準(zhǔn)偏差的輸入數(shù)據(jù)。

離群值常常會(huì)導(dǎo)致模型訓(xùn)練出現(xiàn)問題。

輸出層 (output layer)

神經(jīng)網(wǎng)絡(luò)的“最后”一層,也是包含答案的層。

過擬合 (overfitting)

創(chuàng)建的模型與訓(xùn)練數(shù)據(jù)過于匹配,以致于模型無(wú)法根據(jù)新數(shù)據(jù)做出正確的預(yù)測(cè)。

P

Pandas

面向列的數(shù)據(jù)分析 API。很多機(jī)器學(xué)習(xí)框架(包括 TensorFlow)都支持將 Pandas 數(shù)據(jù)結(jié)構(gòu)作為輸入。請(qǐng)參閱 Pandas 文檔

參數(shù) (parameter)

機(jī)器學(xué)習(xí)系統(tǒng)自行訓(xùn)練的模型的變量。例如,權(quán)重就是一種參數(shù),它們的值是機(jī)器學(xué)習(xí)系統(tǒng)通過連續(xù)的訓(xùn)練迭代逐漸學(xué)習(xí)到的。與超參數(shù)相對(duì)。

參數(shù)服務(wù)器 (PS, Parameter Server)

一種作業(yè),負(fù)責(zé)在分布式設(shè)置中跟蹤模型參數(shù)。

參數(shù)更新 (parameter update)

在訓(xùn)練期間(通常是在梯度下降法的單次迭代中)調(diào)整模型參數(shù)的操作。

偏導(dǎo)數(shù) (partial derivative)

一種導(dǎo)數(shù),除一個(gè)變量之外的所有變量都被視為常量。例如,f(x, y) 對(duì) x 的偏導(dǎo)數(shù)就是 f(x) 的導(dǎo)數(shù)(即,使 y 保持恒定)。f 對(duì) x 的偏導(dǎo)數(shù)僅關(guān)注 x 如何變化,而忽略公式中的所有其他變量。

分區(qū)策略 (partitioning strategy)

參數(shù)服務(wù)器中分割變量的算法。

性能 (performance)

多含義術(shù)語(yǔ),具有以下含義:

  • 在軟件工程中的傳統(tǒng)含義。即:相應(yīng)軟件的運(yùn)行速度有多快(或有多高效)?

  • 在機(jī)器學(xué)習(xí)中的含義。在機(jī)器學(xué)習(xí)領(lǐng)域,性能旨在回答以下問題:相應(yīng)模型的準(zhǔn)確度有多高?即模型在預(yù)測(cè)方面的表現(xiàn)有多好?

困惑度 (perplexity)

一種衡量指標(biāo),用于衡量模型能夠多好地完成任務(wù)。例如,假設(shè)任務(wù)是讀取用戶使用智能手機(jī)鍵盤輸入字詞時(shí)輸入的前幾個(gè)字母,然后列出一組可能的完整字詞。此任務(wù)的困惑度 (P) 是:為了使列出的字詞中包含用戶嘗試輸入的實(shí)際字詞,您需要提供的猜測(cè)項(xiàng)的個(gè)數(shù)。

困惑度與交叉熵的關(guān)系如下:

P=2?cross entropy

流水線 (pipeline)

機(jī)器學(xué)習(xí)算法的基礎(chǔ)架構(gòu)。流水線包括收集數(shù)據(jù)、將數(shù)據(jù)放入訓(xùn)練數(shù)據(jù)文件、訓(xùn)練一個(gè)或多個(gè)模型,以及將模型導(dǎo)出到生產(chǎn)環(huán)境。

正類別 (positive class)

在二元分類中,兩種可能的類別分別被標(biāo)記為正類別和負(fù)類別。正類別結(jié)果是我們要測(cè)試的對(duì)象。(不可否認(rèn)的是,我們會(huì)同時(shí)測(cè)試這兩種結(jié)果,但只關(guān)注正類別結(jié)果。)例如,在醫(yī)學(xué)檢查中,正類別可以是“腫瘤”。在電子郵件分類器中,正類別可以是“垃圾郵件”。

與負(fù)類別相對(duì)。

精確率 (precision)

一種分類模型指標(biāo)。精確率指模型正確預(yù)測(cè)正類別的頻率,即:

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

預(yù)測(cè) (prediction)

模型在收到輸入的樣本后的輸出。

預(yù)測(cè)偏差 (prediction bias)

一個(gè)值,用于表明預(yù)測(cè)平均值與數(shù)據(jù)集中標(biāo)簽的平均值相差有多大。

預(yù)創(chuàng)建的 Estimator (pre-made Estimator)

其他人已建好的 Estimator。TensorFlow 提供了一些預(yù)創(chuàng)建的 Estimator,包括 DNNClassifier、DNNRegressor 和 LinearClassifier。您可以按照這些說(shuō)明構(gòu)建自己預(yù)創(chuàng)建的 Estimator。

預(yù)訓(xùn)練模型 (pre-trained model)

已經(jīng)過訓(xùn)練的模型或模型組件(例如嵌套)。有時(shí),您需要將預(yù)訓(xùn)練的嵌套饋送到神經(jīng)網(wǎng)絡(luò)。在其他時(shí)候,您的模型將自行訓(xùn)練嵌套,而不依賴于預(yù)訓(xùn)練的嵌套。

先驗(yàn)信念 (prior belief)

在開始采用相應(yīng)數(shù)據(jù)進(jìn)行訓(xùn)練之前,您對(duì)這些數(shù)據(jù)抱有的信念。例如,L2 正則化依賴的先驗(yàn)信念是權(quán)重應(yīng)該很小且應(yīng)以 0 為中心呈正態(tài)分布。

Q

隊(duì)列 (queue)

一種 TensorFlow 操作,用于實(shí)現(xiàn)隊(duì)列數(shù)據(jù)結(jié)構(gòu)。通常用于 I/O 中。

R

等級(jí) (rank)

機(jī)器學(xué)習(xí)中的一個(gè)多含義術(shù)語(yǔ),可以理解為下列含義之一:

  • 張量中的維度數(shù)量。例如,標(biāo)量等級(jí)為 0,向量等級(jí)為 1,矩陣等級(jí)為 2。

  • 在將類別從最高到最低進(jìn)行排序的機(jī)器學(xué)習(xí)問題中,類別的順序位置。例如,行為排序系統(tǒng)可以將狗狗的獎(jiǎng)勵(lì)從最高(牛排)到最低(枯萎的羽衣甘藍(lán))進(jìn)行排序。

評(píng)分者 (rater)

為樣本提供標(biāo)簽的人。有時(shí)稱為“注釋者”。

召回率 (recall)

一種分類模型指標(biāo),用于回答以下問題:在所有可能的正類別標(biāo)簽中,模型正確地識(shí)別出了多少個(gè)?即:

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

修正線性單元 (ReLU, Rectified Linear Unit)

一種激活函數(shù),其規(guī)則如下:

  • 如果輸入為負(fù)數(shù)或 0,則輸出 0。

  • 如果輸入為正數(shù),則輸出等于輸入。

回歸模型 (regression model)

一種模型,能夠輸出連續(xù)的值(通常為浮點(diǎn)值)。請(qǐng)與分類模型進(jìn)行比較,分類模型輸出離散值,例如“黃花菜”或“虎皮百合”。

正則化 (regularization)

對(duì)模型復(fù)雜度的懲罰。正則化有助于防止出現(xiàn)過擬合,包含以下類型:

  • L1 正則化

  • L2 正則化

  • 丟棄正則化

  • 早停法(這不是正式的正則化方法,但可以有效限制過擬合)

正則化率 (regularization rate)

一種標(biāo)量值,以 lambda 表示,用于指定正則化函數(shù)的相對(duì)重要性。從下面簡(jiǎn)化的損失公式中可以看出正則化率的影響:

minimize(loss function + λ(regularization function))

提高正則化率可以減少過擬合,但可能會(huì)使模型的準(zhǔn)確率降低。

表示法 (representation)

將數(shù)據(jù)映射到實(shí)用特征的過程。

受試者工作特征曲線(receiver operating characteristic, 簡(jiǎn)稱 ROC 曲線)

不同分類閾值下的真正例率和假正例率構(gòu)成的曲線。另請(qǐng)參閱曲線下面積。

根目錄 (root directory)

您指定的目錄,用于托管多個(gè)模型的 TensorFlow 檢查點(diǎn)和事件文件的子目錄。

均方根誤差 (RMSE, Root Mean Squared Error)

均方誤差的平方根。

S

SavedModel

保存和恢復(fù) TensorFlow 模型時(shí)建議使用的格式。SavedModel 是一種獨(dú)立于語(yǔ)言且可恢復(fù)的序列化格式,使較高級(jí)別的系統(tǒng)和工具可以創(chuàng)建、使用和轉(zhuǎn)換 TensorFlow 模型。

如需完整的詳細(xì)信息,請(qǐng)參閱《TensorFlow 編程人員指南》中的保存和恢復(fù)。

Saver

一種 TensorFlow 對(duì)象,負(fù)責(zé)保存模型檢查點(diǎn)。

縮放 (scaling)

特征工程中的一種常用做法,是對(duì)某個(gè)特征的值區(qū)間進(jìn)行調(diào)整,使之與數(shù)據(jù)集中其他特征的值區(qū)間一致。例如,假設(shè)您希望數(shù)據(jù)集中所有浮點(diǎn)特征的值都位于 0 到 1 區(qū)間內(nèi),如果某個(gè)特征的值位于 0 到 500 區(qū)間內(nèi),您就可以通過將每個(gè)值除以 500 來(lái)縮放該特征。

另請(qǐng)參閱標(biāo)準(zhǔn)化。

scikit-learn

一個(gè)熱門的開放源代碼機(jī)器學(xué)習(xí)平臺(tái)。請(qǐng)?jiān)L問 www.scikit-learn.org。

半監(jiān)督式學(xué)習(xí) (semi-supervised learning)

訓(xùn)練模型時(shí)采用的數(shù)據(jù)中,某些訓(xùn)練樣本有標(biāo)簽,而其他樣本則沒有標(biāo)簽。半監(jiān)督式學(xué)習(xí)采用的一種技術(shù)是推斷無(wú)標(biāo)簽樣本的標(biāo)簽,然后使用推斷出的標(biāo)簽進(jìn)行訓(xùn)練,以創(chuàng)建新模型。如果獲得有標(biāo)簽樣本需要高昂的成本,而無(wú)標(biāo)簽樣本則有很多,那么半監(jiān)督式學(xué)習(xí)將非常有用。

序列模型 (sequence model)

一種模型,其輸入具有序列依賴性。例如,根據(jù)之前觀看過的一系列視頻對(duì)觀看的下一個(gè)視頻進(jìn)行預(yù)測(cè)。

會(huì)話 (session)

維持 TensorFlow 程序中的狀態(tài)(例如變量)。

S 型函數(shù) (sigmoid function)

一種函數(shù),可將邏輯回歸輸出或多項(xiàng)回歸輸出(對(duì)數(shù)幾率)映射到概率,以返回介于 0 到 1 之間的值。S 型函數(shù)的公式如下:

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

在邏輯回歸問題中,σ 非常簡(jiǎn)單:

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

換句話說(shuō),S 型函數(shù)可將 σ 轉(zhuǎn)換為介于 0 到 1 之間的概率。

在某些神經(jīng)網(wǎng)絡(luò)中,S 型函數(shù)可作為激活函數(shù)使用。

softmax

一種函數(shù),可提供多類別分類模型中每個(gè)可能類別的概率。這些概率的總和正好為 1.0。例如,softmax 可能會(huì)得出某個(gè)圖像是狗、貓和馬的概率分別是 0.9、0.08 和 0.02。(也稱為完整 softmax。)

與候選采樣相對(duì)。

稀疏特征 (sparse feature)

一種特征向量,其中的大多數(shù)值都為 0 或?yàn)榭?。例如,某個(gè)向量包含一個(gè)為 1 的值和一百萬(wàn)個(gè)為 0 的值,則該向量就屬于稀疏向量。再舉一個(gè)例子,搜索查詢中的單詞也可能屬于稀疏特征 - 在某種指定語(yǔ)言中有很多可能的單詞,但在某個(gè)指定的查詢中僅包含其中幾個(gè)。

與密集特征相對(duì)。

平方合頁(yè)損失函數(shù) (squared hinge loss)

合頁(yè)損失函數(shù)的平方。與常規(guī)合頁(yè)損失函數(shù)相比,平方合頁(yè)損失函數(shù)對(duì)離群值的懲罰更嚴(yán)厲。

平方損失函數(shù) (squared loss)

在線性回歸中使用的損失函數(shù)(也稱為 L2 損失函數(shù))。該函數(shù)可計(jì)算模型為有標(biāo)簽樣本預(yù)測(cè)的值和標(biāo)簽的實(shí)際值之差的平方。由于取平方值,因此該損失函數(shù)會(huì)放大不佳預(yù)測(cè)的影響。也就是說(shuō),與 L1 損失函數(shù)相比,平方損失函數(shù)對(duì)離群值的反應(yīng)更強(qiáng)烈。

靜態(tài)模型 (static model)

離線訓(xùn)練的一種模型。

平穩(wěn)性 (stationarity)

數(shù)據(jù)集中數(shù)據(jù)的一種屬性,表示數(shù)據(jù)分布在一個(gè)或多個(gè)維度保持不變。這種維度最常見的是時(shí)間,即表明平穩(wěn)性的數(shù)據(jù)不隨時(shí)間而變化。例如,從 9 月到 12 月,表明平穩(wěn)性的數(shù)據(jù)沒有發(fā)生變化。

步 (step)

對(duì)一個(gè)批次的向前和向后評(píng)估。

步長(zhǎng) (step size)

是學(xué)習(xí)速率的同義詞。

隨機(jī)梯度下降法 (SGD, stochastic gradient descent)

批次規(guī)模為 1 的一種梯度下降法。換句話說(shuō),SGD 依賴于從數(shù)據(jù)集中隨機(jī)均勻選擇的單個(gè)樣本來(lái)計(jì)算每步的梯度估算值。

結(jié)構(gòu)風(fēng)險(xiǎn)最小化 (SRM, structural risk minimization)

一種算法,用于平衡以下兩個(gè)目標(biāo):

  • 期望構(gòu)建最具預(yù)測(cè)性的模型(例如損失最低)。

  • 期望使模型盡可能簡(jiǎn)單(例如強(qiáng)大的正則化)。

例如,旨在將基于訓(xùn)練集的損失和正則化降至最低的模型函數(shù)就是一種結(jié)構(gòu)風(fēng)險(xiǎn)最小化算法。

如需更多信息,請(qǐng)參閱 http://www.svms.org/srm/。

與經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化相對(duì)。

總結(jié) (summary)

在 TensorFlow 中的某一步計(jì)算出的一個(gè)值或一組值,通常用于在訓(xùn)練期間跟蹤模型指標(biāo)。

監(jiān)督式機(jī)器學(xué)習(xí) (supervised machine learning)

根據(jù)輸入數(shù)據(jù)及其對(duì)應(yīng)的標(biāo)簽來(lái)訓(xùn)練模型。監(jiān)督式機(jī)器學(xué)習(xí)類似于學(xué)生通過研究一系列問題及其對(duì)應(yīng)的答案來(lái)學(xué)習(xí)某個(gè)主題。在掌握了問題和答案之間的對(duì)應(yīng)關(guān)系后,學(xué)生便可以回答關(guān)于同一主題的新問題(以前從未見過的問題)。請(qǐng)與非監(jiān)督式機(jī)器學(xué)習(xí)進(jìn)行比較。

合成特征 (synthetic feature)

一種特征,不在輸入特征之列,而是從一個(gè)或多個(gè)輸入特征衍生而來(lái)。合成特征包括以下類型:

  • 將一個(gè)特征與其本身或其他特征相乘(稱為特征組合)。

  • 兩個(gè)特征相除。

  • 對(duì)連續(xù)特征進(jìn)行分桶,以分為多個(gè)區(qū)間分箱。

通過標(biāo)準(zhǔn)化或縮放單獨(dú)創(chuàng)建的特征不屬于合成特征。

T

目標(biāo) (target)

是標(biāo)簽的同義詞。

時(shí)態(tài)數(shù)據(jù) (temporal data)

在不同時(shí)間點(diǎn)記錄的數(shù)據(jù)。例如,記錄的一年中每一天的冬外套銷量就屬于時(shí)態(tài)數(shù)據(jù)。

張量 (Tensor)

TensorFlow 程序中的主要數(shù)據(jù)結(jié)構(gòu)。張量是 N 維(其中 N 可能非常大)數(shù)據(jù)結(jié)構(gòu),最常見的是標(biāo)量、向量或矩陣。張量的元素可以包含整數(shù)值、浮點(diǎn)值或字符串值。

張量處理單元 (TPU, Tensor Processing Unit)

一種 ASIC(應(yīng)用專用集成電路),用于優(yōu)化 TensorFlow 程序的性能。

張量等級(jí) (Tensor rank)

請(qǐng)參閱等級(jí)。

張量形狀 (Tensor shape)

張量在各種維度中包含的元素?cái)?shù)。例如,張量 [5, 10] 在一個(gè)維度中的形狀為 5,在另一個(gè)維度中的形狀為 10。

張量大小 (Tensor size)

張量包含的標(biāo)量總數(shù)。例如,張量 [5, 10] 的大小為 50。

TensorBoard

一個(gè)信息中心,用于顯示在執(zhí)行一個(gè)或多個(gè) TensorFlow 程序期間保存的摘要信息。

TensorFlow

一個(gè)大型的分布式機(jī)器學(xué)習(xí)平臺(tái)。該術(shù)語(yǔ)還指 TensorFlow 堆棧中的基本 API 層,該層支持對(duì)數(shù)據(jù)流圖進(jìn)行一般計(jì)算。

雖然 TensorFlow 主要應(yīng)用于機(jī)器學(xué)習(xí)領(lǐng)域,但也可用于需要使用數(shù)據(jù)流圖進(jìn)行數(shù)值計(jì)算的非機(jī)器學(xué)習(xí)任務(wù)。

TensorFlow Playground

一款用于直觀呈現(xiàn)不同的超參數(shù)對(duì)模型(主要是神經(jīng)網(wǎng)絡(luò))訓(xùn)練的影響的程序。要試用 TensorFlow Playground,請(qǐng)前往 http://playground.tensorflow.org。

TensorFlow Serving

一個(gè)平臺(tái),用于將訓(xùn)練過的模型部署到生產(chǎn)環(huán)境。

測(cè)試集 (test set)

數(shù)據(jù)集的子集,用于在模型經(jīng)由驗(yàn)證集的初步驗(yàn)證之后測(cè)試模型。

與訓(xùn)練集和驗(yàn)證集相對(duì)。

tf.Example

一種標(biāo)準(zhǔn)的 proto buffer,旨在描述用于機(jī)器學(xué)習(xí)模型訓(xùn)練或推斷的輸入數(shù)據(jù)。

時(shí)間序列分析 (time series analysis)

機(jī)器學(xué)習(xí)和統(tǒng)計(jì)學(xué)的一個(gè)子領(lǐng)域,旨在分析時(shí)態(tài)數(shù)據(jù)。很多類型的機(jī)器學(xué)習(xí)問題都需要時(shí)間序列分析,其中包括分類、聚類、預(yù)測(cè)和異常檢測(cè)。例如,您可以利用時(shí)間序列分析根據(jù)歷史銷量數(shù)據(jù)預(yù)測(cè)未來(lái)每月的冬外套銷量。

訓(xùn)練 (training)

確定構(gòu)成模型的理想?yún)?shù)的過程。

訓(xùn)練集 (training set)

數(shù)據(jù)集的子集,用于訓(xùn)練模型。

與驗(yàn)證集和測(cè)試集相對(duì)。

轉(zhuǎn)移學(xué)習(xí) (transfer learning)

將信息從一個(gè)機(jī)器學(xué)習(xí)任務(wù)轉(zhuǎn)移到另一個(gè)機(jī)器學(xué)習(xí)任務(wù)。例如,在多任務(wù)學(xué)習(xí)中,一個(gè)模型可以完成多項(xiàng)任務(wù),例如針對(duì)不同任務(wù)具有不同輸出節(jié)點(diǎn)的深度模型。轉(zhuǎn)移學(xué)習(xí)可能涉及將知識(shí)從較簡(jiǎn)單任務(wù)的解決方案轉(zhuǎn)移到較復(fù)雜的任務(wù),或者將知識(shí)從數(shù)據(jù)較多的任務(wù)轉(zhuǎn)移到數(shù)據(jù)較少的任務(wù)。

大多數(shù)機(jī)器學(xué)習(xí)系統(tǒng)都只能完成一項(xiàng)任務(wù)。轉(zhuǎn)移學(xué)習(xí)是邁向人工智能的一小步;在人工智能中,單個(gè)程序可以完成多項(xiàng)任務(wù)。

真負(fù)例 (TN, true negative)

被模型正確地預(yù)測(cè)為負(fù)類別的樣本。例如,模型推斷出某封電子郵件不是垃圾郵件,而該電子郵件確實(shí)不是垃圾郵件。

真正例 (TP, true positive)

被模型正確地預(yù)測(cè)為正類別的樣本。例如,模型推斷出某封電子郵件是垃圾郵件,而該電子郵件確實(shí)是垃圾郵件。

真正例率(true positive rate, 簡(jiǎn)稱 TP 率)

是召回率的同義詞,即:

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

真正例率是 ROC 曲線的 y 軸。

U

無(wú)標(biāo)簽樣本 (unlabeled example)

包含特征但沒有標(biāo)簽的樣本。無(wú)標(biāo)簽樣本是用于進(jìn)行推斷的輸入內(nèi)容。在半監(jiān)督式和非監(jiān)督式學(xué)習(xí)中,無(wú)標(biāo)簽樣本在訓(xùn)練期間被使用。

非監(jiān)督式機(jī)器學(xué)習(xí) (unsupervised machine learning)

訓(xùn)練模型,以找出數(shù)據(jù)集(通常是無(wú)標(biāo)簽數(shù)據(jù)集)中的模式。

非監(jiān)督式機(jī)器學(xué)習(xí)最常見的用途是將數(shù)據(jù)分為不同的聚類,使相似的樣本位于同一組中。例如,非監(jiān)督式機(jī)器學(xué)習(xí)算法可以根據(jù)音樂的各種屬性將歌曲分為不同的聚類。所得聚類可以作為其他機(jī)器學(xué)習(xí)算法(例如音樂推薦服務(wù))的輸入。在很難獲取真標(biāo)簽的領(lǐng)域,聚類可能會(huì)非常有用。例如,在反濫用和反欺詐等領(lǐng)域,聚類有助于人們更好地了解相關(guān)數(shù)據(jù)。

非監(jiān)督式機(jī)器學(xué)習(xí)的另一個(gè)例子是主成分分析 (PCA)。例如,通過對(duì)包含數(shù)百萬(wàn)購(gòu)物車中物品的數(shù)據(jù)集進(jìn)行主成分分析,可能會(huì)發(fā)現(xiàn)有檸檬的購(gòu)物車中往往也有抗酸藥。

請(qǐng)與監(jiān)督式機(jī)器學(xué)習(xí)進(jìn)行比較。

V

驗(yàn)證集 (validation set)

數(shù)據(jù)集的一個(gè)子集,從訓(xùn)練集分離而來(lái),用于調(diào)整超參數(shù)。

與訓(xùn)練集和測(cè)試集相對(duì)。

W

權(quán)重 (weight)

線性模型中特征的系數(shù),或深度網(wǎng)絡(luò)中的邊。訓(xùn)練線性模型的目標(biāo)是確定每個(gè)特征的理想權(quán)重。如果權(quán)重為 0,則相應(yīng)的特征對(duì)模型來(lái)說(shuō)沒有任何貢獻(xiàn)。

寬度模型 (wide model)

一種線性模型,通常有很多稀疏輸入特征。我們之所以稱之為“寬度模型”,是因?yàn)檫@是一種特殊類型的神經(jīng)網(wǎng)絡(luò),其大量輸入均直接與輸出節(jié)點(diǎn)相連。與深度模型相比,寬度模型通常更易于調(diào)試和檢查。雖然寬度模型無(wú)法通過隱藏層來(lái)表示非線性關(guān)系,但可以利用特征組合、分桶等轉(zhuǎn)換以不同的方式為非線性關(guān)系建模。

與深度模型相對(duì)。

(完)

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

干貨來(lái)襲,谷歌最新機(jī)器學(xué)習(xí)術(shù)語(yǔ)表(下)

分享:
相關(guān)文章

編輯

關(guān)注AI學(xué)術(shù),例如論文
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)