丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給楊鯉萍
發(fā)送

0

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

本文作者: 楊鯉萍 編輯:幸麗娟 2019-06-24 10:31
導(dǎo)語:將控制權(quán)交到關(guān)注公平的有關(guān)方手上。

雷鋒網(wǎng) AI 科技評論按:隨著機(jī)器學(xué)習(xí)系統(tǒng)越來越多地運(yùn)用于許多重大決策中,如何對其公平性實(shí)現(xiàn)精細(xì)地控制已經(jīng)成了我們亟需解決的問題。為解決這一問題,目前已有一些研究人員通過引入公平機(jī)器學(xué)習(xí)模型來平衡準(zhǔn)確性和公平性,然而,一些包括公司、政府在內(nèi)的機(jī)構(gòu)態(tài)度不明朗甚至持與公平對立的立場,所以他們往往不會選擇使用這些公平模型。在這樣的環(huán)境下,斯坦福 AI 實(shí)驗(yàn)室的研究人員通過引入了一種新的方法,即令關(guān)注公平的有關(guān)方通過對不公平性進(jìn)行具體限制來控制表示的公平性,從而對機(jī)器學(xué)習(xí)中的公平性實(shí)現(xiàn)可控性。斯坦福 AI 實(shí)驗(yàn)室發(fā)布文章介紹了這一成果,雷鋒網(wǎng) AI 科技評論編譯如下。

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

概述

機(jī)器學(xué)習(xí)系統(tǒng)越來越多地被應(yīng)用于高風(fēng)險決策中,對信用評分、刑事判決等領(lǐng)域都帶來了影響。這就提出了一個亟待解決的問題:我們?nèi)绾未_保這些制度不因種族、性別、殘疾或其他少數(shù)群體身份而產(chǎn)生歧視性行為?為解決這一問題,一些研究人員通過引入公平機(jī)器學(xué)習(xí)模型來平衡準(zhǔn)確性和公平性;然而,一些包括公司、政府在內(nèi)的機(jī)構(gòu)態(tài)度不明朗甚至持與公平對立的立場,所以他們往往不會選擇使用這些公平模型。

值得慶幸的是,目前已有研究人員提出了一些用以學(xué)習(xí)公平表示的方法。關(guān)注公平的有關(guān)方(如數(shù)據(jù)采集者、社區(qū)組織者或監(jiān)管機(jī)構(gòu)) 使用這些方法,可以將數(shù)據(jù)轉(zhuǎn)換為公平表示,然后僅呈現(xiàn)表示,進(jìn)一步提高公平性,從而使所有下游機(jī)器學(xué)習(xí)模型更難產(chǎn)生歧視性行為。

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 1 學(xué)習(xí)和最終以控制良好的數(shù)據(jù)公平表示呈現(xiàn),能夠抑制下游機(jī)器學(xué)習(xí)產(chǎn)生歧視性行為

在這篇文章中,我們介紹了一種基于理論的機(jī)器學(xué)習(xí)公平表示方法,并且我們還發(fā)現(xiàn)一系列現(xiàn)有方法都屬于該方法的特例。此外,我們還注意到所有現(xiàn)有的機(jī)器學(xué)習(xí)公平表示方法,也可以用來平衡有用性和公平性,產(chǎn)生有用性和公平性兩者相平衡的表示。然后有關(guān)方必須多次運(yùn)行學(xué)習(xí)流程,直到找到他們滿意的表示結(jié)果。基于這種理論,我們引入了一種新的方法,即令有關(guān)方通過對不公平性進(jìn)行具體限制來控制表示的公平性。與早期的公平表示相比,這種方式可以讓機(jī)器更快地學(xué)到,同時滿足多個公平概念的要求,并涵蓋更多有用的信息。

公平表示的理論方法

我們首先假設(shè)得到一組通常用來表示人的數(shù)據(jù)點(diǎn)(x)以及他們的敏感屬性(u),這些屬性通常是指他們的種族、性別或其他少數(shù)群體身份。我們必須學(xué)習(xí)一個模型(q?)來將任一數(shù)據(jù)點(diǎn)映射到新的表示 (z) 上。我們的目標(biāo)是雙重的:該表示應(yīng)該是能夠表達(dá)出信息的,即包含數(shù)據(jù)點(diǎn)相關(guān)的大量有用信息;同時這一表示應(yīng)該是公平的,即包含有關(guān)敏感屬性的限制信息;這樣的做法可以抑制機(jī)器學(xué)習(xí)下游產(chǎn)生歧視性行為(為了簡潔起見,我們聚焦人口均等,這是一種非常直觀和嚴(yán)格的公平概念,但我們的方法適用于許多公平概念,如后面的結(jié)果所示)。請注意,僅僅從數(shù)據(jù)中刪除敏感屬性(例如種族)并不能滿足這種公平概念,因?yàn)橄掠螜C(jī)器學(xué)習(xí)模型可能會基于相關(guān)特征(例如郵政編碼),這種做法稱為「劃紅線注銷(redlining)」。

首先,我們將我們的目標(biāo)轉(zhuǎn)化為互信息(mutual information)的信息理論概念。兩個變量之間的互信息被正式定義為變量的聯(lián)合概率與變量的邊緣概率乘積之間的 KL 散度(Kullback-Leibler Divergence)機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案;直觀而言,這是共享的信息總數(shù),我們的目標(biāo)具體如下:

  • 為了實(shí)現(xiàn)表現(xiàn)力,我們希望最大化數(shù)據(jù)點(diǎn) x 和以敏感屬性 u 條件的表示 z 之間的互信息:max I(x;z∣u)。(通過限制敏感屬性,我們確保刺激數(shù)據(jù)點(diǎn)中與敏感屬性相關(guān)的信息出現(xiàn)在表示中。)

  • 為了實(shí)現(xiàn)公平,我們希望限制表示 z 和敏感屬性 u 之間的互信息:I(z;u)<?,其中 ? 由有關(guān)方設(shè)置。

接下來,由于兩組互信息都很難得到優(yōu)化,我們需要尋找近似值:

  • 我們用最大化下邊界?Lr≤I(x;z∣u)來取代最大化 I(x;z∣u)的方法,而最大化下邊界則依賴于我們引入的一個新模型 pθ(x∣z,u)。我們可以明顯發(fā)現(xiàn),最大化?Lr 會有利于映射出,表示 z 加上敏感屬性 u 得到的新模型可以成功地重建數(shù)據(jù)點(diǎn) x。

  • 接著,我們通過約束上限 C1≥I(z;u)來代替對 I(z;u)的約束。很顯然,對 C1 的約束則可以阻止復(fù)雜表示。

  • 或者我們也可以約束與 I(z;u)更相關(guān)的近似值——C2,它依賴于我們引入的一個新模型 pψ(u∣z)。而約束 C2 可以阻止新模型 pψ 使用表示 z 來重構(gòu)敏感屬性 u 的映射。

綜上所述,我們的最終目標(biāo)是找到模型 q?、 pθ, 和 pψ 來幫助成功實(shí)現(xiàn)對數(shù)據(jù)點(diǎn) x 的重建,同時限制表示 z 的復(fù)雜性,并限制敏感屬性 u 的重構(gòu):

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 2 學(xué)習(xí)公平表示的「硬約束」目標(biāo)

其中 ?1 和 ?2 是有關(guān)方設(shè)定的限制。

這為我們提供了一個學(xué)習(xí)公平表示的原則性方法。我們還得到了一個巧妙的發(fā)現(xiàn):事實(shí)證明,現(xiàn)有的一系列學(xué)習(xí)公平表示的方法優(yōu)化了我們的雙重目標(biāo),得到一個「軟正則化」(soft-regularized)版本!

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 3 學(xué)習(xí)公平表示的「軟正則化」損失函數(shù)

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

我們可以看到該框架泛化了一系列現(xiàn)有方法!

學(xué)習(xí)可控公平表示

現(xiàn)在讓我們仔細(xì)觀察「軟正則化」損失函數(shù),可以明顯發(fā)現(xiàn)現(xiàn)有的學(xué)習(xí)公平表示的方法會產(chǎn)生有用性和公平性兼具的表示,表現(xiàn)力和公平性之間的平衡由 λs 的選擇所控制。如果我們能優(yōu)化我們的「硬約束」目標(biāo),那么有關(guān)方就可以通過設(shè)置 ?,來對不公平性進(jìn)行具體限制。

所以,我們引入了:

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 5 機(jī)器學(xué)習(xí)可控公平表示的損失函數(shù) 

直觀而言該損失函數(shù)意味著,每當(dāng)我們考慮由于 C1>?1 或 C2>?2 導(dǎo)致的不公平時,λs 將額外強(qiáng)調(diào)未滿足的約束;這種額外的強(qiáng)調(diào)將一直持續(xù)到 C1 和 C2 滿足有關(guān)方設(shè)定的限制為止。而當(dāng) C1 和 C2 在安全在限制范圍內(nèi)時,將優(yōu)先考慮最小化 Lr ,進(jìn)而有利于產(chǎn)生富有表現(xiàn)力的表示。

結(jié)果

有了最后一塊拼圖,剩下的就是評估我們的理論是否能使其在實(shí)踐中學(xué)習(xí)可控的公平表現(xiàn)。為了進(jìn)行評估,我們學(xué)習(xí)了三個真實(shí)數(shù)據(jù)集的表示:

  • UCI 德國信用數(shù)據(jù)集,包含 1,000 個人,其中二進(jìn)制敏感屬性滿足條件 age<50 / age>50 的應(yīng)受到保護(hù)。

  • 來自美國人口普查的 40000 名成人的 UCI 成人數(shù)據(jù)集,其中二進(jìn)制敏感屬性 Man / Woman 應(yīng)受到保護(hù)。(性別不是二元的,在使用這些數(shù)據(jù)集時將性別視為二元是有問題的,也是這項(xiàng)工作的局限)

  • 60,000 名患者的遺傳健康數(shù)據(jù)集,其中要保護(hù)的敏感屬性是年齡和性別的交集:年齡組 (9 個可能的年齡組) × 性別 (Man / Woman

不出所料,我們的結(jié)果證實(shí)在所有三組學(xué)習(xí)公平表示中,有關(guān)方對 ?1 和?2 的選擇,控制了不公平的近似值 C1 和 C2。

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 6 三個真實(shí)數(shù)據(jù)集實(shí)驗(yàn)數(shù)據(jù),我們學(xué)到了滿足 C1 ≈ ?1 和 C2 ≈ ?2 的表示

結(jié)果還表明,與現(xiàn)有方法相比,我們的方法可以產(chǎn)生更具表現(xiàn)力的表示。

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 7 我們的方法(深藍(lán)色),現(xiàn)有的方法(淺藍(lán)色)

并且,我們的方法能夠同時處理許多公平的概念。

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

圖 8: 當(dāng)學(xué)習(xí)滿足許多(在人口統(tǒng)計、幾率均等和機(jī)會均等上的)公平性約束的成人數(shù)據(jù)集表示時,我們的方法學(xué)習(xí)的表示更具表現(xiàn)力,并且表現(xiàn)比除了一種公平標(biāo)準(zhǔn)外的所有標(biāo)準(zhǔn)都更好。

雖然最后兩個結(jié)果可能看起來令人驚訝,但它們得出這一結(jié)果的原因是,現(xiàn)有方法要求有關(guān)方多次運(yùn)行學(xué)習(xí)過程直到找到他們認(rèn)為大致滿意的表示為止,而我們的方法直接優(yōu)化了盡可能具有表現(xiàn)力的表示,同時也同等滿足了所有有關(guān)方對表示不公平的限制。

總結(jié)

為了補(bǔ)充公司和政府可以選擇使用的公平機(jī)器學(xué)習(xí)模型,這項(xiàng)工作朝著將公平機(jī)器學(xué)習(xí)的控制權(quán)交給關(guān)注公平的一方(如數(shù)據(jù)采集者、社區(qū)組織者或監(jiān)管機(jī)構(gòu)))邁出了一步。我們?yōu)閷W(xué)習(xí)公平表示提供了一種理論方法,使機(jī)器學(xué)習(xí)下游更難以產(chǎn)生歧視性行為,并且提供了一種新方法,使關(guān)注公平的一方能夠通過 ? 來對不公平性進(jìn)行特定限制從而控制表示的公平性。

研究者在進(jìn)行公平機(jī)器學(xué)習(xí)的研究工作時,認(rèn)識到局限性和盲點(diǎn)尤為重要;否則就會冒著開發(fā)出難以實(shí)際應(yīng)用的解決方案的風(fēng)險,同時掩蓋其他人所同樣付出的努力。我們這項(xiàng)成果的一個主要限制是,關(guān)注公平的一方的 ? 限制了對不公平性的近似值,我們也希望未來的工作可以更進(jìn)一步,并能夠?qū)?ε 進(jìn)行映射從而正式保證機(jī)器學(xué)習(xí)下游的公平性。這項(xiàng)成果的另一個可能存在的限制是,像許多公平機(jī)器學(xué)習(xí)的研究領(lǐng)域一樣,中心人口均等、幾率和機(jī)會均等等公平概念所帶來的限制。我們認(rèn)為,未來的工作需要與社會公正所依據(jù)的平等概念建立更深層次的聯(lián)系,這樣才能避免狹隘的技術(shù)解決方案主義,并建立更公平的機(jī)器學(xué)習(xí)。

  • 論文:Learning Controllable Fair Representations 

  • 論文作者:Jiaming Song*, Pratyusha Kalluri*, Aditya Grover, Shengjia Zhao, Stefano Ermon

  • 論文下載地址:https://arxiv.org/abs/1812.04218

via http://ai.stanford.edu/blog/controllable-fairness/

雷鋒網(wǎng) AI 科技評論 

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

機(jī)器學(xué)習(xí)如何從上游抑制歧視性行為?斯坦福 AI 實(shí)驗(yàn)室的最新成果給出了答案

分享:
當(dāng)月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說