丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能 正文
發(fā)私信給skura
發(fā)送

0

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

本文作者: skura 2019-07-29 19:50
導(dǎo)語(yǔ):初學(xué)者入門(mén)必看

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

雷鋒網(wǎng) AI 科技評(píng)論按,采樣問(wèn)題是數(shù)據(jù)科學(xué)中的常見(jiàn)問(wèn)題,對(duì)此,WalmartLabs 的數(shù)據(jù)科學(xué)家 Rahul Agarwal 分享了數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法,雷鋒網(wǎng) AI 科技評(píng)論編譯整理如下。

數(shù)據(jù)科學(xué)實(shí)際上是就是研究算法。

我每天都在努力學(xué)習(xí)許多算法,所以我想列出一些最常見(jiàn)和最常用的算法。

本文介紹了在處理數(shù)據(jù)時(shí)可以使用的一些最常見(jiàn)的采樣技術(shù)。

簡(jiǎn)單隨機(jī)抽樣

假設(shè)您要選擇一個(gè)群體的子集,其中該子集的每個(gè)成員被選擇的概率都相等。

下面我們從一個(gè)數(shù)據(jù)集中選擇 100 個(gè)采樣點(diǎn)。

sample_df = df.sample(100)

分層采樣

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

假設(shè)我們需要估計(jì)選舉中每個(gè)候選人的平均票數(shù)?,F(xiàn)假設(shè)該國(guó)有 3 個(gè)城鎮(zhèn):

  • A 鎮(zhèn)有 100 萬(wàn)工人,

  • B 鎮(zhèn)有 200 萬(wàn)工人,以及

  • C 鎮(zhèn)有 300 萬(wàn)退休人員。

我們可以選擇在整個(gè)人口中隨機(jī)抽取一個(gè) 60 大小的樣本,但在這些城鎮(zhèn)中,隨機(jī)樣本可能不太平衡,因此會(huì)產(chǎn)生偏差,導(dǎo)致估計(jì)誤差很大。

相反,如果我們選擇從 A、B 和 C 鎮(zhèn)分別抽取 10、20 和 30 個(gè)隨機(jī)樣本,那么我們可以在總樣本大小相同的情況下,產(chǎn)生較小的估計(jì)誤差。

使用 python 可以很容易地做到這一點(diǎn):

from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y,
 stratify=y,
 test_size=0.25)

水塘采樣

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

我喜歡這個(gè)問(wèn)題陳述:

假設(shè)您有一個(gè)項(xiàng)目流,它長(zhǎng)度較大且未知以至于我們只能迭代一次。

創(chuàng)建一個(gè)算法,從這個(gè)流中隨機(jī)選擇一個(gè)項(xiàng)目,這樣每個(gè)項(xiàng)目都有相同的可能被選中。

我們?cè)趺茨茏龅竭@一點(diǎn)?

假設(shè)我們必須從無(wú)限大的流中抽取 5 個(gè)對(duì)象,且每個(gè)元素被選中的概率都相等。

import randomdef generator(max):
 number = 1
 while number < max:
 number += 1
 yield number# Create as stream generator
stream = generator(10000)# Doing Reservoir Sampling from the stream
k=5
reservoir = []
for i, element in enumerate(stream):
 if i+1<= k:
 reservoir.append(element)
 else:
 probability = k/(i+1)
 if random.random() < probability:
 # Select item in stream and remove one of the k items already selected
 reservoir[random.choice(range(0,k))] = elementprint(reservoir)
------------------------------------
[1369, 4108, 9986, 828, 5589]

從數(shù)學(xué)上可以證明,在樣本中,流中每個(gè)元素被選中的概率相同。這是為什么呢?

當(dāng)涉及到數(shù)學(xué)問(wèn)題時(shí),從一個(gè)小問(wèn)題開(kāi)始思考總是有幫助的。

所以,讓我們考慮一個(gè)只有 3 個(gè)項(xiàng)目的流,我們必須保留其中 2 個(gè)。

當(dāng)我們看到第一個(gè)項(xiàng)目,我們把它放在清單上,因?yàn)槲覀兊乃劣锌臻g。在我們看到第二個(gè)項(xiàng)目時(shí),我們把它放在列表中,因?yàn)槲覀兊乃吝€是有空間。

現(xiàn)在我們看到第三個(gè)項(xiàng)目。這里是事情開(kāi)始變得有趣的地方。我們有 2/3 的概率將第三個(gè)項(xiàng)目放在清單中。

現(xiàn)在讓我們看看第一個(gè)項(xiàng)目被選中的概率:

移除第一個(gè)項(xiàng)目的概率是項(xiàng)目 3 被選中的概率乘以項(xiàng)目 1 被隨機(jī)選為水塘中 2 個(gè)要素的替代候選的概率。這個(gè)概率是:

2/3*1/2 = 1/3

因此,選擇項(xiàng)目 1 的概率為:

1–1/3=2/3

我們可以對(duì)第二個(gè)項(xiàng)目使用完全相同的參數(shù),并且可以將其擴(kuò)展到多個(gè)項(xiàng)目。

因此,每個(gè)項(xiàng)目被選中的概率相同:2/3 或者用一般的公式表示為 K/N

隨機(jī)欠采樣和過(guò)采樣

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

我們經(jīng)常會(huì)遇到不平衡的數(shù)據(jù)集。

一種廣泛采用的處理高度不平衡數(shù)據(jù)集的技術(shù)稱(chēng)為重采樣。它包括從多數(shù)類(lèi)(欠采樣)中刪除樣本或向少數(shù)類(lèi)(過(guò)采樣)中添加更多示例。

讓我們先創(chuàng)建一些不平衡數(shù)據(jù)示例。

from sklearn.datasets import make_classificationX, y = make_classification(
 n_classes=2, class_sep=1.5, weights=[0.9, 0.1],
 n_informative=3, n_redundant=1, flip_y=0,
 n_features=20, n_clusters_per_class=1,
 n_samples=100, random_state=10
)X = pd.DataFrame(X)
X['target'] = y

我們現(xiàn)在可以使用以下方法進(jìn)行隨機(jī)過(guò)采樣和欠采樣:

num_0 = len(X[X['target']==0])
num_1 = len(X[X['target']==1])
print(num_0,num_1)# random undersampleundersampled_data = pd.concat([ X[X['target']==0].sample(num_1) , X[X['target']==1] ])
print(len(undersampled_data))# random oversampleoversampled_data = pd.concat([ X[X['target']==0] , X[X['target']==1].sample(num_0, replace=True) ])
print(len(oversampled_data))------------------------------------------------------------
OUTPUT:
90 10
20
180

使用 imbalanced-learn 進(jìn)行欠采樣和過(guò)采樣

imbalanced-learn(imblearn)是一個(gè)用于解決不平衡數(shù)據(jù)集問(wèn)題的 python 包,它提供了多種方法來(lái)進(jìn)行欠采樣和過(guò)采樣。

a. 使用 Tomek Links 進(jìn)行欠采樣:

imbalanced-learn 提供的一種方法叫做 Tomek Links。Tomek Links 是鄰近的兩個(gè)相反類(lèi)的例子。
在這個(gè)算法中,我們最終從 Tomek Links 中刪除了大多數(shù)元素,這為分類(lèi)器提供了一個(gè)更好的決策邊界。


數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

from imblearn.under_sampling import TomekLinks

tl = TomekLinks(return_indices=True, ratio='majority')
X_tl, y_tl, id_tl = tl.fit_sample(X, y)

b. 使用 SMOTE 進(jìn)行過(guò)采樣:

在 SMOE(Synthetic Minority Oversampling Technique)中,我們?cè)诂F(xiàn)有元素附近合并少數(shù)類(lèi)的元素。

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

from imblearn.over_sampling import SMOTE

smote = SMOTE(ratio='minority')
X_sm, y_sm = smote.fit_sample(X, y)

imbLearn 包中還有許多其他方法,可以用于欠采樣(Cluster Centroids, NearMiss 等)和過(guò)采樣(ADASYN 和 bSMOTE)。

結(jié)論

算法是數(shù)據(jù)科學(xué)的生命線。

抽樣是數(shù)據(jù)科學(xué)中的一個(gè)重要課題,但我們實(shí)際上并沒(méi)有討論得足夠多。

有時(shí),一個(gè)好的抽樣策略會(huì)大大推進(jìn)項(xiàng)目的進(jìn)展。錯(cuò)誤的抽樣策略可能會(huì)給我們帶來(lái)錯(cuò)誤的結(jié)果。因此,在選擇抽樣策略時(shí)應(yīng)該小心。

如果你想了解更多有關(guān)數(shù)據(jù)科學(xué)的知識(shí),我想把 Andrew Ng 的這門(mén)優(yōu)秀課程推薦給你,這個(gè)課程是我入門(mén)數(shù)據(jù)科學(xué)的法寶,你一定要去看看。

via:https://towardsdatascience.com/the-5-sampling-algorithms-every-data-scientist-need-to-know-43c7bc11d17c

雷鋒網(wǎng)雷鋒網(wǎng)

雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法

分享:
相關(guān)文章
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)