0
本文作者: 郭仁賢 | 2020-06-25 17:36 |
近日,谷歌發(fā)布了隱私保護(hù)TensorFlow工具包,可以評估各種機(jī)器學(xué)習(xí)分類器的隱私屬性。谷歌表示,它旨在成為一個(gè)隱私測試套件的基礎(chǔ),不管AI開發(fā)者的技能水平高低都可以使用它。
當(dāng)前,各種人工智能隱私技術(shù)仍然是社區(qū)內(nèi)爭論的話題,但還沒有一個(gè)規(guī)范的指南來建立一個(gè)私有模型。而越來越多的研究表明人工智能模型可以泄露訓(xùn)練數(shù)據(jù)集的敏感信息,從而產(chǎn)生隱私風(fēng)險(xiǎn)。TensorFlow隱私保護(hù)所采用的緩解方法是差分隱私,它在訓(xùn)練數(shù)據(jù)中添加噪聲以隱藏單個(gè)示例。據(jù)了解,這種噪聲是以學(xué)術(shù)上最壞的情況去設(shè)計(jì)的,同時(shí)會顯著影響模型的準(zhǔn)確性。
因此,這促使谷歌的研究人員在尋求另一種選擇。新的TensorFlow隱私模塊支持的成員推斷攻擊方法,建立分類器來推斷訓(xùn)練數(shù)據(jù)集中是否存在特定樣本。分類器越精確,記憶就越多,因此模型的隱私保護(hù)就越少,做出高精度預(yù)測的攻擊者將成功找出訓(xùn)練集中使用了哪些數(shù)據(jù)。
新模塊提供的測試是黑盒,這意味著它們只使用模型的輸出,而不是內(nèi)部或輸入樣本。它們產(chǎn)生一個(gè)漏洞得分,確定模型是否從訓(xùn)練集中泄漏信息,并且它們不需要任何再訓(xùn)練,使得它們相對容易執(zhí)行。
“在內(nèi)部使用成員關(guān)系推斷測試之后,我們將與開發(fā)人員共享這些測試,以幫助他們構(gòu)建更多的私有模型,探索更好的架構(gòu)選擇,使用正則化技術(shù),如提前停止、退出、權(quán)重衰減和輸入增強(qiáng),或收集更多數(shù)據(jù)?!惫雀鐱rain的雙歌和谷歌軟件工程師David Marn在TensorFlow博客上對外表示。
另外,谷歌表示:“今后,它將探索將成員推斷攻擊擴(kuò)展到分類器之外的可行性,并開發(fā)新的測試。它還計(jì)劃通過將新的測試與用于部署生產(chǎn)機(jī)器學(xué)習(xí)管道的端到端平臺TensorFlow Extended(TFX)集成,探索將新的測試添加到TensorFlow生態(tài)系統(tǒng)中。”
雷鋒網(wǎng)了解到,谷歌在去年夏天開放的基礎(chǔ)差異隱私庫中增加了對Go和Java的支持,還提供了Beam上的隱私,基于Apache Beam(一個(gè)特定于語言的sdk模型和集合)構(gòu)建的端到端差異隱私解決方案,它依賴于差異隱私庫的低級構(gòu)建塊,并將它們組合成一個(gè)“開箱即用”的解決方案,該解決方案考慮了差異隱私所必需的步驟。
此外,谷歌還推出了一個(gè)新的隱私損失分配工具,用于跟蹤隱私預(yù)算,允許開發(fā)者對收集差異私人查詢的用戶隱私總成本進(jìn)行估計(jì),并更好地評估其管道的總體影響。雷鋒網(wǎng)雷鋒網(wǎng)
參考于:Google releases experimental TensorFlow module that tests the privacy of AI models
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。