0
本文作者: AI研習(xí)社-譯站 | 2020-12-23 15:01 |
譯者:AI研習(xí)社(porchy)
雙語原文鏈接:Isolation Forest is the best Anomaly Detection Algorithm for Big Data Right Now
孤立森林或者"iForest"是一個(gè)優(yōu)美動(dòng)人,簡潔優(yōu)雅的算法,只需少量參數(shù)就可以檢測(cè)出異常點(diǎn)。原始論文中只包含了最基本的數(shù)學(xué),因而對(duì)于廣大群眾而言是通俗易懂的。在這篇文章中,我會(huì)總結(jié)這個(gè)算法,以及其歷史,并分享我實(shí)現(xiàn)的代碼來解釋為什么iForest是現(xiàn)在針對(duì)大數(shù)據(jù)而言最好的異常檢測(cè)算法。
總結(jié)來說,它在同類算法中有最好的表現(xiàn)。iForest在多種數(shù)據(jù)集上的ROC表現(xiàn)和精確度都比大多數(shù)其他的異常檢測(cè)算法要好。我從Python Outlier Detection package的作者們那里取得了基準(zhǔn)數(shù)據(jù),并在Excel中逐行使用綠-紅梯度的條件格式化。用深綠色來標(biāo)識(shí)那些在這個(gè)數(shù)據(jù)集上有最好的表現(xiàn)的算法,并用深紅色來標(biāo)識(shí)那些表現(xiàn)得最差的:
綠色表示"好"而紅色表示"差"。我們看到IForest在很多的數(shù)據(jù)集以及總體的角度上是領(lǐng)先的,正如平均值,中位數(shù),標(biāo)準(zhǔn)差的顏色所表示。圖源:作者。數(shù)據(jù)源:https://pyod.readthedocs.io/en/latest/benchmark.html
我們看到IForest在很多的數(shù)據(jù)集上以及總體上的表現(xiàn)是領(lǐng)先的,正如我計(jì)算出來的平均值,中位數(shù),標(biāo)準(zhǔn)差的顏色所表示的一樣。從precision@N(最重要的N項(xiàng)指標(biāo)的準(zhǔn)確度)的表現(xiàn)來看iForest也能得出同樣的優(yōu)秀結(jié)果。
圖源:author.Data
源:https://pyod.readthedocs.io/en/latest/benchmark.html
可擴(kuò)展性。iForest以它表現(xiàn)出來的性能為標(biāo)準(zhǔn)而言是最快的算法??梢灶A(yù)料到的是,PCA和基于頻數(shù)直方圖的異常點(diǎn)檢測(cè)算法(HBOS)在所有的數(shù)據(jù)集上都有更快的速度。
k近鄰算法(KNN)則要慢得多并且隨著數(shù)據(jù)量變多它會(huì)變得越來越慢。
我已經(jīng)成功地在一個(gè)包含一億個(gè)樣本和三十六個(gè)特征的數(shù)據(jù)集上構(gòu)建出孤立森林,在一個(gè)集群環(huán)境中這需要幾分鐘。而這是我認(rèn)為sklearn的KNN算法沒辦法做到的。
圖源:author.Data
源:https://pyod.readthedocs.io/en/latest/benchmark.html
我通過下面的綜述來非常簡潔地總結(jié)原來有10頁內(nèi)容的論文:
大多數(shù)其他異常檢測(cè)(OD)算法嘗試去建立"正常"數(shù)據(jù)的范圍,從而把不屬于這個(gè)正常范疇的個(gè)體標(biāo)注為不正常。iForest則直接通過利用異常點(diǎn)的隱含特質(zhì)來把他們分隔開:他們?cè)趨f(xié)變量集上會(huì)擁有不尋常的值。
現(xiàn)有的方法由于計(jì)算成本的原因只能被用在低維數(shù)據(jù)或者小數(shù)據(jù)集上。一個(gè)恰當(dāng)?shù)睦邮牵耗銜?huì)在大數(shù)據(jù)上使用sklearn.neighbor.KNeighborsClassifier嗎?
此外,iForest只需要很少的常量和很低的內(nèi)存需求。也就是說,低開銷。特別地:外部節(jié)點(diǎn)的數(shù)量是n,因?yàn)槊總€(gè)觀測(cè)數(shù)據(jù),n,都會(huì)被孤立。內(nèi)部節(jié)點(diǎn)的總數(shù)顯然是n-1,從而總體節(jié)點(diǎn)數(shù)會(huì)是2n-1。因此,我們可以理解為什么需要的內(nèi)存是有界的,而且隨著樣本數(shù)量n線性增加。
孤立樹節(jié)點(diǎn)的定義: T 或是一個(gè)沒有子節(jié)點(diǎn)的葉子節(jié)點(diǎn),或者是一個(gè)經(jīng)過檢驗(yàn)的內(nèi)部節(jié)點(diǎn),并擁有兩個(gè)子節(jié)點(diǎn)(Tl,Tr)。我們通過遞歸地進(jìn)行下述過程來構(gòu)造一棵iTree:隨機(jī)選擇一項(xiàng)特征q和一個(gè)分割值p來劃分X,直到發(fā)生下列情形之一為止:(i)樹到達(dá)了限制的高度,(ii)所有樣本被孤立成一個(gè)只有他們自己的外部節(jié)點(diǎn),或者(iii)所有數(shù)據(jù)的所有特征都有相同的值。
路徑長度:一個(gè)樣本x的路徑長度h(x)指的是從iTree的根節(jié)點(diǎn)走到葉子節(jié)點(diǎn)所經(jīng)歷的邊的數(shù)量。E(h(x))是一組孤立樹的h(x)的平均值。從這個(gè)路徑長度的平均值,我們可以通過公式E(h(x)):s(x, n) = 2^[^[? E(h(x)) / c(n)]來得到一個(gè)異常分?jǐn)?shù)s(x,n)?;旧?,s和E(h(x))之間存在一個(gè)單調(diào)的關(guān)系。(想知道細(xì)節(jié)的話請(qǐng)查閱文末的附錄,有一張圖描述了他們之間的關(guān)系)。這里我不會(huì)討論c(n),因?yàn)閷?duì)于任意給定的靜態(tài)數(shù)據(jù)集而言它是一個(gè)常數(shù)。
用戶只需要設(shè)置兩個(gè)變量:孤立樹的數(shù)量和訓(xùn)練單棵樹的子采樣大小。作者通過對(duì)用高斯分布生成的數(shù)據(jù)做實(shí)驗(yàn)來展示了只需要少量的幾棵樹和少量的子采樣數(shù)量就可以使平均路徑長度很快地收斂。
小的子采樣數(shù)量(抽樣的抽樣)解決了swamping和masking問題。造成這兩個(gè)問題的原因是輸入的數(shù)據(jù)量對(duì)于異常檢測(cè)這個(gè)問題來說太大了。Swamping是指由于某個(gè)"正常"的樣本點(diǎn)被異常點(diǎn)所包圍而被錯(cuò)誤地標(biāo)注為"異常",masking則是相反的情況。也就是說,如果構(gòu)建一個(gè)樹的樣本中有很多異常點(diǎn),一個(gè)正常的數(shù)據(jù)點(diǎn)反而會(huì)看起來很異常。 作者使用乳房x線照相的數(shù)據(jù)來作為這個(gè)現(xiàn)象的一個(gè)例子。
小的子采樣數(shù)量使得每一棵孤立樹都具有獨(dú)特性,因?yàn)槊恳淮巫硬蓸佣及唤M不同的異常點(diǎn)或者甚至沒有異常點(diǎn)。
iForest不依賴距離或者密度的測(cè)量來識(shí)別異常點(diǎn),因此它計(jì)算成本低廉且有較快的速度。這引出了下一個(gè)議題。
線性的時(shí)間復(fù)雜度,O(n)。不正規(guī)地說,這意味著運(yùn)行時(shí)間隨著輸入大小的增加最多只會(huì)線性增加。這是一個(gè)非常好的性質(zhì):
見多識(shí)廣的讀者應(yīng)該知道一個(gè)優(yōu)秀的新想法出現(xiàn)與它的廣泛應(yīng)用之間可能會(huì)有數(shù)十年之久的間隔。例如,邏輯函數(shù)在1845年被發(fā)現(xiàn),在1922年被重新發(fā)現(xiàn)(更多信息可參考)而到如今才被數(shù)據(jù)科學(xué)家頻繁地用于邏輯回歸。在最近幾十年,一個(gè)新想法和它被廣泛應(yīng)用的間隔時(shí)間已經(jīng)變得更短了,但這仍然需要一段相對(duì)較為漫長的時(shí)間。iForest最先在2008年公開,但直到2018年后期才出現(xiàn)了可行的商業(yè)應(yīng)用。 這是其時(shí)間線:
12/2008 -iForest的原始論文發(fā)布(論文)
07/2009 -iForest的作者們最后一次修改其代碼實(shí)現(xiàn)(代碼)
10/2018 -h2o小組實(shí)現(xiàn)了Python版和R版的iForest(代碼)
01/2019 -PyOD在Python上發(fā)布了異常檢測(cè)工具包(代碼,論文)
08/2019 -Linkedln 工程小組發(fā)布了 iForest的Spark/Scala版本實(shí)現(xiàn)(代碼,通訊稿)
由于這篇文章是關(guān)于大數(shù)據(jù)的,我采用了AWS的集群環(huán)境。這里省略的大部分的腳手架(軟件質(zhì)量保證和測(cè)試之類的代碼)的代碼。如果在配置AWS集群環(huán)境中需要幫助,可以參考我的文章:如何為SparkSQL搭建高效的AWS
EMR集群和Jupyter Notebooks
我發(fā)現(xiàn)iForest能很輕易且快捷地處理750萬行,36個(gè)特征的數(shù)據(jù),只需幾分鐘就完成計(jì)算。
Python(h2o):
import h2o # h2o automated data cleaning well for my datasetimport pkg_resources################################################################### print packages + versions for debugging/future reproducibility ###################################################################dists = [d for d in pkg_resources.working_set] # Filter out distributions you don't care about and use.dists.reverse() dists################################################################### initialize h2o cluster and load data##################################################################h2o.init() # import pyarrow.parquet as pq # allow loading of parquet filesimport s3fs # for working in AWS s3s3 = s3fs.S3FileSystem()df = pq.ParquetDataset('s3a://datascience-us-east-1/anyoung/2_processedData/stack_parquetFiles', filesystem=s3).read_pandas().to_pandas()# check input data loaded correctly; pretty print .shapeprint('(' + '; '.join(map('{:,.0f}'.format, df.shape)) + ')')# if you need to sample datadf_samp_5M = df.sample(n=5000000, frac=None, replace=False, weights=None, random_state=123, axis=None)# convert Pandas DataFrame object to h2o DataFrame objecthf = h2o.H2OFrame(df)# drop primary key columnhf = hf.drop('referenceID', axis = 1) # referenceID causes errors in subsequent code# you can omit rows with nas for a first passhf_clean = hf.na_omit()# pretty print .shape with thousands comma separatorprint('(' + '; '.join(map('{:,.0f}'.format, hf.shape)) + ')')from h2o.estimators import H2OIsolationForestEstimatorfrom h2o.estimators import H2OIsolationForestEstimator fullX = ['v1', 'v2', 'v3' ]# split h2o DataFrame into 80/20 train/testtrain_hf, valid_hf = hf.split_frame(ratios=[.8], seed=123)# specify iForest estimator modelsisolation_model_fullX = H2OIsolationForestEstimator(model_id = "isolation_forest_fullX.hex", seed = 123) isolation_model_fullX_cv = H2OIsolationForestEstimator(model_id = "isolation_forest_fullX_cv.hex", seed = 123)# train iForest modelsisolation_model_fullX.train(training_frame = hf, x = fullX) isolation_model_fullX_cv.train(training_frame = train_hf, x = fullX)# save models (haven't figured out how to load from s3 w/o permission issues yet)modelfile = isolation_model_fullX.download_mojo(path="~/", get_genmodel_jar=True)print("Model saved to " + modelfile)# predict modelspredictions_fullX = isolation_model_fullX.predict(hf)# visualize resultspredictions_fullX["mean_length"].hist() |
如果你使用iForest來驗(yàn)證你的帶標(biāo)簽數(shù)據(jù),你可以通過比較數(shù)據(jù)集中的正常數(shù)據(jù)的分布,異常數(shù)據(jù)的分布,以及原來數(shù)據(jù)集的分布來進(jìn)行進(jìn)一步推理。例如,你可以查看原本數(shù)據(jù)集中不同的特征組合,像這樣:
N = df.count() df[['v1', 'v2', 'id']].groupby(['v1', 'v2']).count() / N df[['v1', 'v3', 'id']].groupby(['v1', 'v3']).count() / N ... |
并與使用iForest得出的正常/異常數(shù)據(jù)集進(jìn)行比較。正如下面所展示的這樣:
################################################################### column bind predictions from iForest to the original h2o DataFrame##################################################################hf_X_y_fullX = hf.cbind(predictions_fullX)################################################################### Slice using a boolean mask. The output dataset will include rows # with column value meeting condition##################################################################mask = hf_X_y_fullX["label"] == 0hf_X_y_fullX_0 = hf_X_y_fullX[mask,:] mask = hf_X_y_fullX["label"] == 1hf_X_y_fullX_1 = hf_X_y_fullX[mask,:]################################################################### Filter to only include records that are clearly normal##################################################################hf_X_y_fullX_ml7 = hf_X_y_fullX[hf_X_y_fullX['mean_length'] >= 7] hf_X_y_fullX_0_ml7 = hf_X_y_fullX_1[hf_X_y_fullX_0['mean_length'] >= 7] hf_X_y_fullX_1_ml7 = hf_X_y_fullX_3[hf_X_y_fullX_1['mean_length'] >= 7]################################################################### Convert to Pandas DataFrame for easier counting/familiarity##################################################################hf_X_y_fullX_ml7_df = h2o.as_list(hf_X_y_fullX_ml7, use_pandas = True) hf_X_y_fullX_0_ml7_df = h2o.as_list(hf_X_y_fullX_0_ml7, use_pandas = True) hf_X_y_fullX_1_ml7_df = h2o.as_list(hf_X_y_fullX_1_ml7, use_pandas = True)################################################################### Look at counts by combinations of variable levels for inference##################################################################hf_X_y_fullX_ml7_df[['v1', 'v2', 'id']].groupby(['v1', 'v2']).count() hf_X_y_fullX_0_ml7_df = h2o.as_list(hf_X_y_fullX_0_ml7, use_pandas = True)...# Repeat above for anomalous records:################################################################### Filter to only include records that are clearly anomalous##################################################################hf_X_y_fullX_ml3 = hf_X_y_fullX[hf_X_y_fullX['mean_length'] < 3] hf_X_y_fullX_0_ml3 = hf_X_y_fullX_1[hf_X_y_fullX_0['mean_length'] < 3] hf_X_y_fullX_1_ml3 = hf_X_y_fullX_3[hf_X_y_fullX_1['mean_length'] < 3]################################################################### Convert to Pandas DataFrame for easier counting/familiarity##################################################################hf_X_y_fullX_ml3_df = h2o.as_list(hf_X_y_fullX_ml3, use_pandas = True) hf_X_y_fullX_0_ml3_df = h2o.as_list(hf_X_y_fullX_0_ml3, use_pandas = True) hf_X_y_fullX_1_ml3_df = h2o.as_list(hf_X_y_fullX_1_ml3, use_pandas = True) |
我完整地實(shí)現(xiàn)了上面的代碼并把我的數(shù)據(jù)輸出到Excel中,很快就可以得到如下的一些累積分布函數(shù):
圖源:作者自己的作品。綠線表示標(biāo)識(shí)為1的數(shù)據(jù),即正常樣本:紅線
代表的是標(biāo)識(shí)為0的樣本,被認(rèn)為有可能是異常的。
F. T. Liu, K. M. Ting, and Z.-H. Zhou.孤立森林. 在:第八屆IEEE數(shù)據(jù)挖掘國際會(huì)議的期間(ICDM' 08),Pisa,Italy,2008,pp.413-422.[代碼]這篇文章在IEEE ICDM'08榮獲了最佳理論/算法論文獎(jiǎng)的第二名
Zhao, Y., Nasrullah, Z. and Li, Z., 2019. PyOD:一個(gè)可量化的異常檢測(cè)Python工具箱.Journal of machine learning research (JMLR) , 20(96),pp.1-7.
AI研習(xí)社是AI學(xué)術(shù)青年和AI開發(fā)者技術(shù)交流的在線社區(qū)。我們與高校、學(xué)術(shù)機(jī)構(gòu)和產(chǎn)業(yè)界合作,通過提供學(xué)習(xí)、實(shí)戰(zhàn)和求職服務(wù),為AI學(xué)術(shù)青年和開發(fā)者的交流互助和職業(yè)發(fā)展打造一站式平臺(tái),致力成為中國最大的科技創(chuàng)新人才聚集地。
如果,你也是位熱愛分享的AI愛好者。歡迎與譯站一起,學(xué)習(xí)新知,分享成長。
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。