0
五角大樓認為,人工智能是一種戰(zhàn)勝和支配未來對手的方式。人工智能的脆弱本質意味著,如果沒有足夠的重視,這項技術可能會為敵人提供一種新的攻擊方式。
由五角大樓創(chuàng)建的聯(lián)合人工智能中心(Joint Artificial Intelligence Center),旨在幫助美國軍方利用人工智能。該中心最近成立了一個部門,負責收集、審查和向國防部各部門分發(fā)開源和工業(yè)機器學習模型。這種努力一部分指向了將人工智能用于軍事目的的一個關鍵挑戰(zhàn)。
一個被稱為“測試和評估小組”(Test and Evaluation Group)的機器學習“紅隊”將調查預先訓練過的模型的弱點,另一個網(wǎng)絡安全團隊則檢查人工智能代碼和數(shù)據(jù)中隱藏的漏洞。
機器學習是現(xiàn)代人工智能背后的技術,它代表了一種根本不同的、通常更強大的編寫計算機代碼的方式。機器學習通過從數(shù)據(jù)中學習生成自己的規(guī)則,而不是編寫讓機器遵循的規(guī)則。問題是,這種學習過程,以及訓練數(shù)據(jù)中的人工制品或錯誤,可能會導致AI模型以奇怪或不可預測的方式行為。
JAIC戰(zhàn)略和政策主管格雷戈里?艾倫(Gregory Allen)表示:“對于某些應用來說,機器學習軟件比傳統(tǒng)軟件要好上萬億倍?!钡?,他補充說,機器學習“也以不同于傳統(tǒng)軟件的方式進行突破?!?nbsp;
例如,訓練用來識別衛(wèi)星圖像中特定車輛的機器學習算法,也可能學會將車輛與周圍某一顏色的風景聯(lián)系起來。對手可以通過改變車輛周圍的場景來欺騙AI。在獲取訓練數(shù)據(jù)時,對手也可以植入圖像,比如特定的符號,這會使算法混亂。
艾倫說,五角大樓對其使用的軟件的可靠性和安全性有嚴格的規(guī)定,這種方法可以擴展到人工智能和機器學習,并指出JAIC正在更新國防部的軟件標準,包括機器學習方面的問題。
人工智能正在改變一些企業(yè)的運營方式,因為它可能是一種高效而強大的方式來實現(xiàn)任務和流程的自動化。
例如,一家公司可以使用一個人工智能算法,查看數(shù)千或數(shù)百萬以前的銷售情況,并設計自己的模型,預測誰將購買什么產品。
美國和其他國家的軍隊也看到了類似的優(yōu)勢,正急于利用人工智能來改善后勤、情報收集、任務規(guī)劃和武器技術。
中國不斷增長的技術能力在五角大樓內激起了采用人工智能的緊迫感。艾倫表示,國防部正在“以負責任的方式,優(yōu)先考慮安全性和可靠性”。
研究人員正在開發(fā)更有創(chuàng)造性的方法來破解、顛覆或破壞人工智能系統(tǒng)。
2020年10月,以色列的研究人員展示了經過精心調整的圖像會如何混淆讓特斯拉解讀前方道路的人工智能算法。這類“對抗性攻擊”涉及對機器學習算法的輸入進行調整,以找到導致重大錯誤的小變化。
加州大學伯克利分校教授Dawn Song在特斯拉的傳感器和其他人工智能系統(tǒng)上進行了類似的實驗。他表示,在欺詐檢測等領域,對機器學習算法的攻擊已經成為一個問題。一些公司提供工具來測試用于金融領域的人工智能系統(tǒng)。“自然會有攻擊者想要逃避系統(tǒng),”她說?!拔艺J為我們將看到更多這類問題?!?/p>
一個簡單的機器學習攻擊的例子,涉及到2016年首次亮相的微軟聊天機器人Tay,其使用了一種算法,通過檢查之前的對話來學習如何回應新的詢問,reddit用戶很快意識到他們可以利用這一點,讓Tay發(fā)布仇恨信息。
馬里蘭大學研究機器學習算法脆弱性的副教授Tom Goldstein表示,攻擊人工智能系統(tǒng)的方法有很多種,包括修改輸入算法的數(shù)據(jù),使其以特定方式行動。機器學習模型與傳統(tǒng)軟件的不同之處在于,獲得一個模型可以讓對手設計一種無法抵御的攻擊,比如誤導性輸入。
戈爾茨坦說:“我們真的不知道如何解決人工智能的所有弱點,我們不知道如何讓系統(tǒng)完全抵御對抗性攻擊。”
在軍事方面,如果有一個資源豐富、技術先進的對手,防范各種新的進攻路線非常重要。
喬治敦大學安全與新興技術中心的最近一份報告警告稱,人工智能中的“數(shù)據(jù)中毒”可能對國家安全構成嚴重威脅。這將涉及滲透用于訓練人工智能模型的過程,可能是通過讓一個代理志愿者給輸入算法的圖像貼上標簽,或者在網(wǎng)絡上植入圖像,然后提取圖像并輸入人工智能模型。(雷鋒網(wǎng) 雷鋒網(wǎng))雷鋒網(wǎng)
編譯來源:https://www.wired.com/story/pentagon-bolstering-ai-systems-hacking-itself/
雷峰網(wǎng)原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。