0
雷鋒網(wǎng) AI 科技評(píng)論按:《哈佛商業(yè)評(píng)論》(Harvard Business Review)最近發(fā)表了一篇文章《不想被偏見左右?那就用算法!》作者是亞歷克斯·p·米勒。這篇文章談到,人類常常做出有帶有偏見性的決定(確實(shí)如此),所以他認(rèn)為更多的地使用算法代替人類做決定是一個(gè)不錯(cuò)的選擇。
「如何提高算法的公平性」是機(jī)器學(xué)習(xí)領(lǐng)域經(jīng)常談及的話題,但是直接認(rèn)為算法的偏見就是比人類少,馬上引起了不少反對(duì)之聲。在雷鋒網(wǎng) AI 科技評(píng)論編譯的這篇文章里,Rachel Thomas 就逐項(xiàng)提出了自己的反駁。
他認(rèn)為米勒忽略了許多重要的相關(guān)因素,包括:
算法實(shí)現(xiàn)的時(shí)候通常不會(huì)設(shè)計(jì)一個(gè)用來(lái)申訴的途徑(因?yàn)楹芏嗳苏`以為算法是客觀、精準(zhǔn)且不會(huì)出錯(cuò)的)
在許多情況下,算法的使用范圍比人類的決策者規(guī)模大得多,所以會(huì)把完全相同的偏見也散播到同樣大的范圍中去(算法之所以吸引人,一部分原因就是因?yàn)槭褂贸杀镜停?/p>
算法的使用者可能不理解概率或置信區(qū)間(即使已經(jīng)注明),并且在實(shí)際操作中可能也不愿去推翻算法的決定(即便這在技術(shù)上是完全可行的)
與其只關(guān)注這些不置可否的選擇,不如好好考慮如何將人類和機(jī)器的優(yōu)勢(shì)相結(jié)合,以便創(chuàng)造出更好的、偏見更少的決策工具。
米勒在《不想被偏見左右?那就用算法!》中承認(rèn),「算法革命」的批評(píng)者是在擔(dān)心「算法在運(yùn)用時(shí)會(huì)不透明、帶有偏見,成為無(wú)法解釋的工具」,但他在自己的文章中卻只提到了「偏見」,而忽略了「不透明」和「無(wú)法解釋」(以及它們和「偏見」之間的化學(xué)反應(yīng))。
媒體總是通過人類和機(jī)器的對(duì)比來(lái)證明 AI 的進(jìn)步,比如我們常會(huì)看到媒體報(bào)道,誰(shuí)才是某項(xiàng)任務(wù)的冠軍。若考慮到大多數(shù)算法一般都是用來(lái)做什么的,這種比較其實(shí)并不科學(xué),同時(shí)這樣評(píng)價(jià)人工智能也十分狹隘。因?yàn)樵谒邪咐?,算法都有人類的參與,尤其是在搜集數(shù)據(jù)、制定決策、實(shí)現(xiàn)方式、解讀結(jié)果及因人而異的理解等方面,都會(huì)受到人類的左右。
多數(shù)從事人工智能醫(yī)學(xué)應(yīng)用的研究人員,事實(shí)上并不打算用機(jī)器來(lái)完全取代醫(yī)生,他們只想利用人工智能來(lái)幫助醫(yī)生,使他們的決策能更加準(zhǔn)確和效率,并提高醫(yī)療質(zhì)量。要知道,史上最強(qiáng)的從來(lái)不是人與機(jī)器中的一個(gè),而是并肩協(xié)作的人類與計(jì)算機(jī)組成的團(tuán)隊(duì)。
米勒(正確地)認(rèn)為,人類是非常有偏見的,然后他對(duì)比了幾種現(xiàn)有的并不完善的改善方案,想從里面挑出不那么糟糕的一種。但他卻并未提出實(shí)質(zhì)性的思考:怎樣才能減少偏見,作出更好的決策呢?(也許是通過一些人與算法的結(jié)合?)我想,這個(gè)問題更值得考量。
算法在實(shí)際中運(yùn)用范圍很廣,因而也會(huì)出現(xiàn)許多相同的偏見,但這種偏見卻會(huì)被認(rèn)為是正確或客觀的結(jié)果。米勒的研究中,把它們拿來(lái)做了完全并列的對(duì)比,但他沒有注意到實(shí)際使用中的區(qū)別。
凱茜?奧尼爾(Cathy O 'Neil)在《摧毀數(shù)學(xué)的武器》(Weapons of Math Destruction)中寫道,她所批評(píng)的那類算法更傾向于禍及窮人。它們專注于處理相對(duì)便宜而又大規(guī)模的任務(wù),當(dāng)然,價(jià)格低是它的優(yōu)勢(shì)。相反,富人卻常傾向于選擇「人」。要知道,大公司或者貴族學(xué)校常傾向于內(nèi)部推薦或面對(duì)面的面試,而不會(huì)像財(cái)力不足的企業(yè)那樣使用機(jī)器進(jìn)行群體篩選。佼佼者往往會(huì)動(dòng)用人力,而機(jī)器常被派遣去做相對(duì)初級(jí)的選拔。
凱茜在書中舉了的一個(gè)例子,有一位患雙相情感障礙的大學(xué)生,他想在暑假里找一份裝雜貨的工作。但由于他申請(qǐng)的每一家便利店都在使用相同的心理測(cè)量軟件來(lái)篩選求職者,因此他被每家便利店都拒絕了。這體現(xiàn)出算法的另一隱患:即使人類經(jīng)常有類似的偏見,但并不是所有的人都會(huì)做出相同的決定。如有可能,他也許能找到一個(gè)即使知道他的心理疾病仍然愿意雇傭他的老板。
許多人寧愿相信算法做出的決策,也不愿信任人類的決定。事實(shí)上,設(shè)計(jì)算法的研究者們可能對(duì)概率和置信區(qū)間有更多的了解,但真正使用這些算法的普通大眾卻不會(huì)注意到這一點(diǎn)。即使給了他們推翻算法決策的權(quán)力,在實(shí)際操作他們也不一定愿意這樣做。
很多關(guān)于算法偏見的案例,其實(shí)都缺乏有意義的解釋或申訴過程。這看似是算法決策過程中的特殊趨勢(shì),也許是因?yàn)槿藗冨e(cuò)誤地認(rèn)為算法就是客觀的,所以沒必要允許對(duì)結(jié)果進(jìn)行申訴。與此同時(shí),正如上文所說的那樣,算法決策系統(tǒng)本來(lái)是為了削減成本,如果要允許申訴的話,這功夫就白費(fèi)了。
凱茜·奧尼爾(Cathy O’neil)還提到,有位深受學(xué)生、家長(zhǎng)和校長(zhǎng)喜愛的老師,卻莫名被算法開除了。她永遠(yuǎn)都沒辦法知道算法是因?yàn)槭裁丛蚨_除她的!如果有一種相對(duì)快捷、簡(jiǎn)單的方式來(lái)讓她提出申訴,甚至即便只是讓她確切知道這和什么因素有關(guān),這故事就不會(huì)那么令人扼腕了。
有一個(gè)軟件在美國(guó)一半以上的州使用著,它會(huì)決定每個(gè)人接受的醫(yī)療保健服務(wù)應(yīng)該有多少。根據(jù) The Verge 的調(diào)查,這種軟件在阿肯色州實(shí)施后,許多患有嚴(yán)重殘疾的人醫(yī)療保健驟然大幅削減。比如,一位患有腦癱的女性 Tammy Dobbs,她本需要一個(gè)幫助來(lái)幫助她完成起床,上廁所,吃東西等日常生活行為的人,但其受助時(shí)間卻突然減少到每周 20 個(gè)小時(shí)。沒有任何人能向她解釋為什么醫(yī)療保健服務(wù)一下子變少了。最終,經(jīng)過法院調(diào)查,是該軟件的算法錯(cuò)了,因此對(duì)糖尿病或腦癱患者產(chǎn)生了負(fù)面影響。然而,像 Tammy Dobbs 類似的許多病人依然生活在恐懼之中,總擔(dān)心他們的福利又會(huì)莫名其妙地被削減。
這個(gè)算法的創(chuàng)造者是一位教授,他從這個(gè)軟件中賺取版稅。然而在被問及此事時(shí),他卻認(rèn)為這是別人的責(zé)任。我們可不能推卸自己的技術(shù)問題給別人。
2000 年代中期,科羅拉多州使用了一個(gè)單獨(dú)的計(jì)算機(jī)系統(tǒng)來(lái)確定公共福利,結(jié)果被發(fā)現(xiàn)有超過 900 條的錯(cuò)誤規(guī)定被輸入到了里面,導(dǎo)致了一系列問題。比如,孕婦無(wú)法享受醫(yī)療補(bǔ)助。律師們通常很難發(fā)現(xiàn)這些漏洞,因?yàn)檫@些內(nèi)部工作機(jī)制就像商業(yè)秘密一樣受保護(hù)。所以說,醫(yī)療保健、雇傭/解雇、刑事司法和其他會(huì)對(duì)人們的生活造成重要改變的領(lǐng)域的決策系統(tǒng),應(yīng)該創(chuàng)建出一個(gè)快速且易于操作的申訴機(jī)制。這些令人不安的事故中,如果有一種簡(jiǎn)單高效的方法來(lái)糾正算法的錯(cuò)誤就好了。犯錯(cuò)是難免的,正因如此,有一個(gè)嚴(yán)密的系統(tǒng)來(lái)發(fā)現(xiàn)和糾正這些錯(cuò)誤是不可或缺的。
當(dāng)我們談及人工智能時(shí),我們需要考慮的是在這個(gè)現(xiàn)實(shí)世界中復(fù)雜的系統(tǒng)?!豆鹕虡I(yè)評(píng)論》中提到的研究將決策看成孤立的行為,并沒有考慮所處的環(huán)境。就好比判斷一個(gè)人是否會(huì)坦白其他罪行,這種決定并不能孤立做出,還需要結(jié)合復(fù)雜的法律系統(tǒng)。我們有必要了解研究領(lǐng)域所處的真實(shí)環(huán)境是如何交互運(yùn)作的,同時(shí)別忽略那些可能會(huì)受到影響的人。
在美國(guó)的一些法庭上,對(duì)于審前保釋、量刑和假釋有關(guān)的判決,都使用了 COMPAS 算法。在 ProPublica 的一項(xiàng)中調(diào)查發(fā)現(xiàn),白人被告人的結(jié)果誤報(bào)率是 24%(這里的誤報(bào)是說,算法判斷這個(gè)人釋放時(shí)是「高?!沟?,但此后并沒有二進(jìn)宮),而黑人被告的誤報(bào)率高達(dá) 45%。后來(lái)的研究發(fā)現(xiàn),COMPAS 事實(shí)上還不如一個(gè)簡(jiǎn)單的線性方程精確。(你可以在普林斯頓計(jì)算機(jī)科學(xué)學(xué)院教授 Arvind Narayanan 的《21個(gè)關(guān)于公平的定義》視頻中看到更多關(guān)于公平的定義)。
克里斯蒂安?林(Kristian Lum)是一名統(tǒng)計(jì)學(xué)博士,也是人權(quán)數(shù)字分析集團(tuán)(Human Rights Digital Analysis Group)的首席數(shù)據(jù)科學(xué)家。她與紐約法律援助協(xié)會(huì)(NY Legal Aid Society)的律師、前公設(shè)辯護(hù)人伊麗莎白?本德(Elizabeth Bender)以及一名被捕卻無(wú)辜的男子,特倫斯?威爾克森(Terrence Wilkerson)一起組織了一個(gè)研討會(huì)。他們一起分享了關(guān)于法律體系中所存在的漏洞的應(yīng)對(duì)經(jīng)驗(yàn),為圍繞 COMPAS 的辯論提供了寶貴的討論素材。 Bender 分享說,紐約市的無(wú)力負(fù)擔(dān)保釋費(fèi)用、也尚未經(jīng)過審判的被捕公民都會(huì)被關(guān)押監(jiān)禁在 Rikers Island,政府付費(fèi)的公共辯護(hù)人去那里見他們的時(shí)候來(lái)回各需要兩個(gè)小時(shí),但是實(shí)際面見需要法律服務(wù)的那個(gè)人的時(shí)間才不到 30 分鐘,假如守衛(wèi)們動(dòng)作麻利、守時(shí)的話(但往往不是這樣的)。威爾克森詳細(xì)介紹了這些無(wú)力繳納保釋金的無(wú)辜被捕者有多么經(jīng)常同意簽署認(rèn)罪協(xié)議,只為了他們可以更快地出獄。請(qǐng)不要忘了,這些都是發(fā)生在一群從來(lái)沒有上過法庭的人身上!這個(gè)圓桌討論是一個(gè)闡明現(xiàn)實(shí)世界與復(fù)雜系統(tǒng)之間關(guān)系的絕好例子,真希望更多的統(tǒng)計(jì)學(xué)家和計(jì)算機(jī)科學(xué)家能向他們學(xué)習(xí)。
由此可見,算法也許會(huì)加劇潛在的社會(huì)問題,比如法院和監(jiān)獄系統(tǒng)啦,跟種族偏見掛鉤的保釋金使用等等。所以我們有責(zé)任去了解算法可能會(huì)接觸的系統(tǒng)以及它們可能會(huì)遇到的問題。
大多數(shù)對(duì)算法偏見持反對(duì)意見的人,都只是在反對(duì)不公平的偏見,而不是反對(duì)算法本身。米勒說,這些批評(píng)算法不公平的人「很少問他們分析的系統(tǒng)在沒有算法的情況下運(yùn)行得有多好」,這表明那些反對(duì)者可能并不知道人類帶有多少偏見,或就只是單純排斥算法。在我開始撰寫有關(guān)機(jī)器學(xué)習(xí)偏見的文章之前,我就花了大量時(shí)間研究和撰寫有關(guān)人類的偏見(特別是關(guān)于它們?nèi)绾闻c科技行業(yè)相關(guān)的研究)。
當(dāng)我在 twitter 上分享有關(guān)偏見的算法時(shí),常會(huì)遭到反駁,認(rèn)為我是反算法/科技人士。我有數(shù)學(xué)的博士學(xué)位,我曾做過量化分析師、數(shù)據(jù)科學(xué)家和軟件工程師,并創(chuàng)建了一個(gè)免費(fèi)的在線計(jì)算線性代數(shù)課程,且與別人合作創(chuàng)立了 fast.ai ,它有面向程序員的深度學(xué)習(xí)實(shí)操課程,并通過算法的巧妙運(yùn)用贏得了斯坦福大學(xué)的計(jì)算機(jī)視覺速度測(cè)試。
我不是唯一這樣的人:大多數(shù)直言不諱批評(píng)帶有偏見的算法的人,都有計(jì)算機(jī)科學(xué)、數(shù)學(xué)或統(tǒng)計(jì)學(xué)博士學(xué)位,且持續(xù)活躍在他們的領(lǐng)域里。只要看看 Faireness Accountability and Transparency Conference 的一些發(fā)言者就懂了。好比普林斯頓大學(xué)的計(jì)算機(jī)科學(xué)教授 Arvind Narayanan,他是 Kaggle 社交網(wǎng)絡(luò)挑戰(zhàn)賽的冠軍,也是一門流行的加密貨幣課程的老師,他依然公開反對(duì)過算法偏見。
所以,我希望有關(guān)偏見算法的討論不要總是拘泥在這種無(wú)足輕重的地方,而要深入問題的本質(zhì)。
via fast.ai,雷鋒網(wǎng) AI 科技評(píng)論編譯
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。