丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
業(yè)界 正文
發(fā)私信給李秀琴
發(fā)送

0

AI算法為什么會存在性別歧視?谷歌做出了解釋

本文作者: 李秀琴 2017-08-30 17:19
導語:『只要機器學習的程序是通過社會中已經(jīng)存在的數(shù)據(jù)進行訓練的,那么只要這個社會還存在偏見,機器學習也就會重現(xiàn)這些偏見?!?

一直以來,通過研究表明,人類研發(fā)的機器也能學習到人類看待這個世界的視角,無論其是否有意。對于閱讀文本的人工智能來說,它可能會將“醫(yī)生”一詞與男性優(yōu)先關聯(lián),而非女性,或者圖像識別算法也會更大概率的將黑人錯誤分類為大猩猩。

2015年,Google Photos應用誤把兩名黑人標注為“大猩猩”,當時這一錯誤意味著谷歌的機器學習還處于“路漫漫其修遠兮”的狀態(tài)。隨后,谷歌立即對此道歉,并表示將調(diào)整算法,以修復該問題。近日,作為該項錯誤的責任方,谷歌正在試圖讓大眾了解AI是如何在不經(jīng)意間永久學習到創(chuàng)造它們的人所持有的偏見。一方面,這是谷歌對外PR(公共關系)的好方式,其次,AI程序員也可以用一種簡單的方法來概述自己的偏見算法。

視頻來源:YouTube

在該視頻中,谷歌概述了三種偏見:

互動偏差:用戶可以通過我們和其交互的方式來偏移算法。例如,谷歌把一些參與者召集其起來,并讓他們每人畫一只鞋,但多半用戶會選擇畫一只男鞋,所以以這些數(shù)據(jù)為基礎的系統(tǒng)可能并不會知道高跟鞋也是鞋子。

潛在偏差:該算法會將想法和性別、種族、收入等不正確地進行關聯(lián)。例如,當用戶在Google Search搜索“醫(yī)生”時,出現(xiàn)的大多為白人男性。

AI算法為什么會存在性別歧視?谷歌做出了解釋

雷鋒網(wǎng)了解到,此前Quarts發(fā)布了一則相關新聞,該報道稱,經(jīng)普林斯頓大學最新研究成果表明,這些偏見,如將醫(yī)生與男性相關聯(lián),而將護士與女性關聯(lián),都來自算法被教授的語言的影響。正如一些數(shù)據(jù)科學家所說:沒有好的數(shù)據(jù),算法也做不出好的決策。

選擇偏差:據(jù)了解,用于訓練算法的數(shù)據(jù)量已經(jīng)大大超過全球人口的數(shù)量,以便對算法實行更好的操作和理解。所以如果訓練圖像識別的數(shù)據(jù)僅針對白人而進行,那么得到的數(shù)據(jù)也只能來自AI的認定。

AI算法為什么會存在性別歧視?谷歌做出了解釋

圖片來源:Qaurtz

去年6月, “青年實驗室”(英偉達、微軟等科技巨擘均是該實驗室的合作伙伴和支持者)舉辦了一次Beauty.ai的網(wǎng)絡選美大賽。該比賽通過人工智能分析,征集了60萬條記錄。該算法參考了皺紋、臉部比例、皮膚疙瘩和瑕疵的數(shù)量、種族和預測的年齡等等因素。最后結果表明,種族這一因素比預期發(fā)揮了更大的作用:在44名獲獎者當中,其中有36人為白人。

事實上,關于算法中含有性別、種族偏見的研究和報道,早已有之。而據(jù)雷鋒網(wǎng)此前報道,要消除這些偏見,并不容易。正如微軟紐約研究院的高級研究員Hanna Wallach所說:

『只要機器學習的程序是通過社會中已經(jīng)存在的數(shù)據(jù)進行訓練的,那么只要這個社會還存在偏見,機器學習也就會重現(xiàn)這些偏見。』

Via Quartz,雷鋒網(wǎng)編譯

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權禁止轉載。詳情見轉載須知。

分享:
相關文章

記者

跟蹤Fintech和區(qū)塊鏈(微信:cqmm16,備注身份姓名來意,thx)
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說