2
雷鋒網(wǎng)(公眾號:雷鋒網(wǎng)) AI 科技評論按:本文為“兜哥帶你學安全”系列之三,首發(fā)于AI科技評論,未經(jīng)許可不得轉(zhuǎn)載。
概述
在前面文章《對抗樣本的基本原理》中,我們介紹了生成對抗樣本的基本思路,其中大體思路分為白盒攻擊和黑盒攻擊,區(qū)別在于黑盒測試把模型當做黑盒,只能輸入樣本獲得預測結(jié)果,白盒在黑盒的基礎(chǔ)上還可以獲取模型的參數(shù)、梯度等信息。本文將介紹白盒攻擊中鼎鼎大名的DeepFool算法。
DeepFool基本原理
在《攻擊AI模型之FGSM算法》中,我們介紹了FGSM的基本原理。一個很好的問題就是,我們究竟對原始圖像做了多大修改就可以欺騙AI模型呢?換個說法就是,如何盡量少的修改原始圖像就可以達到欺騙AI模型的目的呢?首先我們先看下我們對原始圖像做了哪些修改。假設我們原始圖像為x0file,對抗樣本為x1file,將原始圖像保存成向量。
#原始圖像數(shù)據(jù)
x0_img = image.load_img(x0_file, target_size=(299, 299))
x0 = image.img_to_array(x0_img)
同樣的方法,將對抗樣本生成的圖像保存成向量。
#對抗樣本數(shù)據(jù)
x1_img = image.load_img(x1_file, target_size=(299, 299))
x1 = image.img_to_array(x1_img)
計算原始圖像和對抗樣本之間的差值,轉(zhuǎn)換成無符號的字節(jié)類型后保存成圖像。
#計算變化量
d=x1-x0
im = Image.fromarray(d.astype(np.uint8))
im.save(out)
以我們經(jīng)典的小豬圖像為原始圖像,效果如下圖所示。
FGSM算法生成的對抗樣本圖像,效果如下圖所示。
對抗樣本相對原始圖像的變化量,效果如下圖所示。
DeepFool最早由S. Moosavi-Dezfooli, A. Fawzi,和P. Frossard在《DeepFool: a simple and accurate method to fool deep neural networks》中提出。以最簡單的二分類問題為例,如圖所示,假設分割平面是一個直線,直線的兩側(cè)分別對應不同的分類結(jié)果。
如果想改變其中某點的分類結(jié)果,一定要跨過分割平面。顯然最短的移動距離就是垂直分割平面進行移動。在線性代數(shù)里面,點x到直線Ax+By+C=0的距離定義為:
向量化表示距離如下,其中w為參數(shù)矩陣。
推而廣之,在二分類問題中,當分割平面不是線性時,我們假設當移動的距離很小時,分割平面相對該點可以認為依然是一個線性的分割平面,每次迭代時,該點都以很小的移動距離不斷逼近分割平面。
由于移動距離很小,可以使用該點的梯度代替參數(shù)矩陣w。多分類問題時,與二分類問題類似,只不過在迭代計算時需要考慮該點向不同分類標簽移動時要選取一定距離最短的那個。
攻擊圖像識別模型
以攻擊InceptionV3模型為例,介紹生成攻擊樣本的基本原理。Keras內(nèi)置了這個模型,我們直接使用就可以了。從模型中直接獲取第一層的輸入作為輸入層,最后一層的輸出為輸出層。
model = inception_v3.InceptionV3()
model_input_layer = model.layers[0].input
model_output_layer = model.layers[-1].output
然后加載我們攻擊的圖片,比如我們的小豬。這里需要特別強調(diào)的是,NumPy出于性能考慮,默認的變量賦值會引用同樣一份內(nèi)存,所以我們需要使用np.copy手工強制復制一份圖像數(shù)據(jù)。
img = image.load_img("../picture/pig.jpg", target_size=(299, 299))
original_image = image.img_to_array(img)
hacked_image = np.copy(original_image)
為了避免圖像變化過大,超過肉眼可以接受的程度,我們需要定義閾值。
max_change_above = original_image + 0.01
max_change_below = original_image - 0.01
下面我們要定義最關(guān)鍵的三個函數(shù)了,我們定義損失函數(shù)為識別為烤面包機的概率,因此我們需要使用梯度上升算法,不斷追求損失函數(shù)的最大化,變量objecttypeto_fake定義的就是烤面包機對應的標簽,在InceptionV3中面包機的標簽為859。
object_type_to_fake = 859
有了損失函數(shù)以后,我們就可以通過Keras的接口獲取到對應的梯度函數(shù)。最后通過K.function獲取一個Keras函數(shù)實例,該函數(shù)的輸入列表分別為輸入層和當前是訓練模式還是測試模式的標記learning_phase(),輸出列表是損失函數(shù)和梯度。關(guān)于K.function的使用建議閱讀Keras的在線文檔。
cost_function = model_output_layer[0, object_type_to_fake]
gradient_function = K.gradients(cost_function, model_input_layer)[0]
grab_cost_and_gradients_from_model =
K.function([model_input_layer,K.learning_phase()],
[cost_function, gradient_function] )
除了迭代環(huán)節(jié),DeepFool與FGSM的算法完全相同。在迭代環(huán)節(jié),我們通過NumPy的inalg.norm函數(shù)對梯度進行處理,然后迭代更新圖片內(nèi)容。
r= gradients*cost/pow(np.linalg.norm(gradients), 2)
hacked_image +=r
hacked_image = np.clip(hacked_image, max_change_below, max_change_above)
hacked_image = np.clip(hacked_image, -1.0, 1.0)
這里需要特別介紹下linalg.norm函數(shù),其函數(shù)原型為:
x_norm=np.linalg.norm(x, ord=None, axis=None, keepdims=False)
其中ord表示矩陣的范數(shù)。
ord=1,列和的最大值,第一范式
ord=2,求特征值,然后求最大特征值得算術(shù)平方根,第二范式,也是默認值
axis表示處理類型。
axis=1表示按行向量處理,求多個行向量的范數(shù)
axis=0表示按列向量處理,求多個列向量的范數(shù)
axis=None表示矩陣范數(shù)。
在我的Mac本經(jīng)過2分鐘27次迭代訓練,獲得了新的家豬圖像,但是機器學習模型識別它為烤面包機的概率卻達到了86.086%。
batch:20 Cost: 18.707792%
batch:21 Cost: 26.560178%
batch:22 Cost: 37.765652%
batch:23 Cost: 50.175613%
batch:24 Cost: 65.024394%
batch:25 Cost: 71.812165%
batch:26 Cost: 73.846906%
batch:27 Cost: 86.086935%
基于DeepFool算法被識別為烤面包機的家豬的圖片效果如下。
計算相對原始圖像的修改量,如下圖所示,顯然比FGSM修改量少。
參考文獻
S. Moosavi-Dezfooli, A. Fawzi, P. Frossard: DeepFool: a simple and accurate method to fool deep neural networks. In Computer Vision and Pattern Recognition (CVPR ’16), IEEE, 2016.
劉焱,《web安全之強化學習與GAN》,機械工業(yè)出版社
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。