0
本文作者: 楊波 | 2016-08-22 18:53 |
雷鋒網按:本文作者 Ryan O'Hare,來源Dailymail,由雷鋒網獨家編譯,未經許可拒絕轉載!
毫無疑問,人類不自覺的性別偏見會影響對語言進行分析的計算機算法。比如,當用人單位在搜索簡歷輸入“程序員”這個崗位的時候,搜索結果會優(yōu)先顯示來自男性求職者的簡歷——因為“程序員”這個詞與男性的關聯(lián)比女性更密切。同理,當搜索目標為“前臺”時,女性求職者的簡歷則會被優(yōu)先顯示出來。這樣帶有性別歧視的計算機算法對求職者而言是不公平的。
目前,來自微軟的程序員Adam Kalai正在與波士頓大學的科學家們合作,嘗試通過一種叫“詞向量”的技術,瓦解計算機算法中反射出的人類社會的性別歧視。“詞向量”技術的基礎是教計算機通過發(fā)掘詞語之間的的關聯(lián)進行語言處理。通過使用這個方法,計算機可以通過比較單詞 “她”和“他”來了解上下文的語境。在具體運用時,計算機會找到諸如 “姐姐-弟弟”和“王后-國王”這樣合適的配對。
Kalai在接受美國國家公共電臺的采訪時表示,“我們試圖避免在新聞中體現與性別歧視相關的內容……但是你會發(fā)現,這些單詞配對存在赤裸裸的性別歧視意味?!?/span>
在網上最新公布的一篇研究報告中,該研究小組發(fā)現,他們可以訓練計算機忽略單詞的某些特定的關聯(lián),同時保留它們需要的關鍵信息。他們解釋道:“我們的目標是減少單詞配對中的性格偏見,同時保留詞向量中有用的一些特征?!蓖ㄟ^對算法的略微調整,他們可以消除 “前臺”和“女性”之間的聯(lián)系,同時保留合適的單詞配對,比如“王后”和“女性”。
雖然該算法基于性別產生配對,但還是忽略了其中潛在的某些聯(lián)系——有些單詞的性別特征的確比較鮮明。他們相信這個方法會讓計算機學習通過詞向量,在保留有效聯(lián)系的同時,擺脫固有的性格偏見。根據美國國家公共電臺的報道,問題是不一定要采用“詞向量”去處理語言。這種算法可以分辨性別和種族,但只有當研究人員希望專注于某一特定性別或者族群時,才可能需要用到這種算法。
當這種技術被用作毫無偏見地篩選數據的方法,而不考慮性別或種族偏見時,事情就會比較復雜了。對此,科學家們解釋道:“對基于種族、民族和文化的固有成見而產生的直接和間接偏見的理解是頗為微妙的。在未來,這項工作的一個重要方向是能夠量化并消除這些偏見?!?/span>
當然,想要完全杜絕偏見是不可能的,配對的規(guī)則掌握在人類手中,只要人類的偏見還存在,機器人的偏見也不會消失。
via dailymail
雷峰網原創(chuàng)文章,未經授權禁止轉載。詳情見轉載須知。