丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
國際 正文
發(fā)私信給Gavin.Z
發(fā)送

0

因?yàn)槿祟?,人工智能其?shí)戴著“有色眼鏡”

本文作者: Gavin.Z 2016-09-03 11:47
導(dǎo)語:原因很簡單:AI的老師是我們——人類。

因?yàn)槿祟?,人工智能其?shí)戴著“有色眼鏡”

Jeff J Mitchell/Getty Images

人們對(duì)現(xiàn)代科技持樂觀態(tài)度,部分原因在于大家相信這是一種民主化力量——不被人類長時(shí)間學(xué)到的狹隘偏見所限制。但是最新研究發(fā)現(xiàn),這只是海市蜃樓般的假象。

原因非常簡單:我們從周圍的世界學(xué)習(xí)到偏見,而AI則從我們這里學(xué)到偏見。

有很多原因讓我們認(rèn)為AI是“公平”的。既然AI是基于數(shù)學(xué)算法,那么它就不會(huì)一開始帶有對(duì)聽起來像白人的名字的明顯偏好或者認(rèn)為女人該待在家里。為了提防明顯的偏見——程序員不小心植入AI系統(tǒng)中的,比如說標(biāo)準(zhǔn)化測試如何偏袒白人——有些人建議采取透明算法,更加多樣的開發(fā)團(tuán)隊(duì)等等。

但是盡管這些方法對(duì)此有幫助,普林斯頓大學(xué)計(jì)算機(jī)科學(xué)家Aylin Caliskan-Islam, Joanna Bryson和Arvind Narayanan認(rèn)為這可能還不夠。他們表示,

“我們通過文件記錄的方式證明那些根本上源于人類文化的機(jī)器偏見不可能通過我們上面提到的策略來消除?!?/span>

我們從周圍的世界學(xué)到偏見。而和我們一樣,AI從我們身上學(xué)到偏見。計(jì)算機(jī)科學(xué)家通過采用新穎的方式得到這樣一個(gè)結(jié)論:從本質(zhì)上來說,他們對(duì)計(jì)算機(jī)算法進(jìn)行一系列的隱性關(guān)聯(lián)測試(評(píng)估種族和性別歧視的標(biāo)準(zhǔn)心理學(xué)方法),然后驗(yàn)證對(duì)人類進(jìn)行的隱性關(guān)聯(lián)測試。(點(diǎn)擊這里可以獲得更多關(guān)于隱性關(guān)聯(lián)測試的信息。)

選擇的算法是GloVe,這是目前根據(jù)上下文提取單詞意思最先進(jìn)的方法,也就是通過這些單詞意思和其他單詞在文本中出現(xiàn)的頻率來進(jìn)行判斷。根據(jù)GloVe和相關(guān)方法,在相似的文章中兩個(gè)單詞出現(xiàn)的頻率越高,他們關(guān)聯(lián)性越高。比如,如果“女人”這個(gè)詞經(jīng)常和與家庭有關(guān)的詞一起出現(xiàn),那么“女人”這個(gè)概念就和“家庭”關(guān)聯(lián)性非常高。

該團(tuán)隊(duì)從網(wǎng)絡(luò)截取有著8400億個(gè)單詞的大量文章來檢驗(yàn)GloVe,然后使用這個(gè)版本開始著手驗(yàn)證一些人們最明顯的偏見。在這些偏見中有一個(gè)是使用隱性關(guān)聯(lián)測試進(jìn)行的實(shí)驗(yàn)。這個(gè)名為“2002實(shí)驗(yàn)”的研究結(jié)果顯示,我們傾向于將女性名字和家庭聯(lián)系在一起,而將男性名字和事業(yè)聯(lián)系在一起——這也許并不令人感到驚訝。Caliskan-Islam, Bryson, 和Narayanan的單詞相似性比較也得到了相同的結(jié)果:像Amy、Joan和家、父母之類的詞更相似。相反,John、Paul和公司、薪水之類的詞更相似。

研究者也發(fā)現(xiàn),聽起來像白人的名字和歡樂、平靜等令人愉悅的詞更相似,然而聽起來像非洲裔美國人的名字和苦惱、戰(zhàn)爭等令人感到討厭的詞更相似——這從概念上驗(yàn)證了2004實(shí)驗(yàn),該結(jié)果顯示公司更傾向于雇傭名字像白人的應(yīng)聘者。

我們要指出,這些結(jié)果并不意味著GloVe或者相關(guān)的算法有固有的偏見,這點(diǎn)很重要。事實(shí)上,很難理解他們?cè)趺磿?huì)有偏見。然而實(shí)際上,是我們的文化和語言有偏見,只要這是真的,Caliskan-Islam, Bryson, and, Narayanan寫到,人工智能(AI)“就能夠從顯示歷史不公正的訓(xùn)練數(shù)據(jù)中獲得有害的偏見。”

 via psmag

推薦閱讀:

計(jì)算機(jī)系統(tǒng)里的偏見和歧視:除了殺死,還有其他方法

致程序員:算法為何帶有偏見?

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

分享:
相關(guān)文章
當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說