0
本文作者: 肖漫 | 2019-10-15 15:50 |
人工智能發(fā)展至今天,利用 AI 來分類圖片庫已經不是什么稀奇的事情了。但是,圖片并不都是單一的個人自拍或是單一物體,而是包含多種背景要素,例如多人合影、風景山水照等。那么,AI 是如何讓圖片分類器識別并做出決策將各種圖片進行分類的呢?
針對這一問題,國外媒體的相關報道通過對相關論文的解讀作出了解釋,雷鋒網對其進行不改變原意的編譯。
【 圖片來源:Google 所有者:Google 】
人們通常會認為 ,隨著 AI 系統復雜性的增加,它的可解釋性會變得越來越差。但是,研究人員開始用函數庫來挑戰(zhàn)這一想法,比如解釋深度學習的神經網絡框架 PyTorch 是如何做決定的 Facebook 的 Captum、IBM 的 AI Explainability 360 工具包、以及微軟的 InterpretML。
為了使 AI 的決策更加透明,Google 和斯坦福的一個研究團隊近期開發(fā)了一個機器學習模型——基于概念的自動解釋(雷鋒網按: Automated Concept-based Explanation ,ACE),這個模型能夠自動提取出“對人類有意義”的視覺概念,為模型的預測提供信息。
正如研究人員在其論文中解釋的那樣,大多數機器學習解釋方法會改變單個特征(例如像素、超級像素、單詞向量),去接近于每一個目標模型。不過,這是一種不完美的方法,因為它很容易受到一些輸入變化的影響,哪怕是最小的變化。
和大多數機器學習解釋方法形成對比的是 ACE 識別高級概念的方法:它在提取概念并確定每個概念重要性之前,會將一個訓練過的分類器和一個類別的一組圖像作為輸入。具體來說,就是 ACE 片段圖像在將類似片段作為相同概念進行分組,并將最重要的概念返回之前,有著多個決議去捕獲多個層次的紋理、對象部分以及對象。
為了測試 ACE 的魯棒性,該研究團隊使用了 Google 的 Inception-V3 圖像分類器模型,讓其在 ImageNet 數據集上訓練,并從數據集中的 1000 個類中選擇 100 個類的子集來應用 ACE。
研究團隊指出,被標記為重要的概念往往是遵從人的直覺的,例如,在檢測警車時,執(zhí)法部門的標識比地面上的瀝青顯得更為重要。不過,情況也不都是如此,在一些區(qū)別性不明顯的案例中就有所體現。比如,預測籃球圖像時,更為重要的是球員的球衣,而不是籃球。
另外,研究人員表示,他們通過人類實驗驗證了其意義和一致性,并進一步證實了 ACE 的確是攜帶著顯著的預測信號。同時,研究人員還指出,他們的方法...自動將輸入特性分組為高級概念;一些有意義的概念作為連貫的示例出現,這對于正確預測它們所呈現的圖像非常重要。
值得一提的是,研究人員也承認了 ACE 絕非是完美的,因為它還難以有效地提取異常復雜或困難的概念。但是,他們認為,ACE 對模型的學習相關性提供的洞見會促進機器學習的安全使用。
雷鋒網注:本文編譯自 KYLE WIGGERS 發(fā)表在 venturebeat 上的文章。
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。