2
昨天,微軟CEO Satya Nadella在Slate上表示:計(jì)算機(jī)行業(yè)必須開始思考如何讓智能軟件尊重人類。這表明:他非常擔(dān)心AI對(duì)人類生活的影響。
他寫道:“科技行業(yè)不應(yīng)該扭曲未來的價(jià)值觀,我們應(yīng)該教會(huì)AI樹立正確的價(jià)值觀?!?/p>
Nadella呼吁:“算法有責(zé)任擁有一個(gè)正確的三觀,這樣人類才不會(huì)受到傷害?!彼硎局悄苘浖仨氝@樣設(shè)計(jì):我們必須檢閱算法的工作方式,讓它不歧視某類人群,或者用暗黑的方式使用私人數(shù)據(jù)。
其實(shí),Nadella的建議是明智而中肯的。一直以來,AI總是被指控腹黑,存在著性別或者種族歧視。我們現(xiàn)在正在努力擺正AI的三觀,讓人們不會(huì)為AI的此問題困擾。
聯(lián)邦貿(mào)易委員會(huì)的研究發(fā)現(xiàn):在互聯(lián)網(wǎng)時(shí)代早期出現(xiàn)的網(wǎng)絡(luò)種族和經(jīng)濟(jì)歧視現(xiàn)在又卷土而來了,出現(xiàn)在廣告或者其他的網(wǎng)上服務(wù)之中。
毋庸置疑,Nadella說的一些問題確實(shí)存在。近日,微軟研究員Kate Crawford在《紐約時(shí)報(bào)》總結(jié)了現(xiàn)在AI的歧視現(xiàn)象:現(xiàn)在,工作場(chǎng)所、家庭、法律系統(tǒng)中使用的微軟都不公平。
關(guān)于未來AI的發(fā)展方向,Nadella是這樣說的:AI的下一步發(fā)展,便是尊重種族和性別平等。
正如沒有哪個(gè)孩子天生就是一個(gè)性別歧視者或種族歧視者,那些都是被教出來的。AI也是這樣,而人類就是最好的老師。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。