0
本文作者: 老王 | 2016-12-05 16:01 |
今年春季的時(shí)候微軟在 Twitter 上發(fā)布了一個(gè)人工智能聊天機(jī)器人 Tay,與我們熟知的微軟小冰類似,但在和用戶開放對(duì)話后不到一天的時(shí)間里,它就“變成”了一個(gè)熱愛希特勒、譏諷女權(quán)主義的機(jī)器人,最終由于不恰當(dāng)?shù)姆N族主義言論引發(fā)了激烈爭議。
隨后微軟很快就下線了 Tay,并宣布對(duì) Tay 的算法進(jìn)行調(diào)整,避免聊天機(jī)器人再發(fā)表任何不恰當(dāng)?shù)难哉摗?/p>
而就在近日,微軟已準(zhǔn)備好推出升級(jí)版 Tay:Zo。
鑒于 Tay 引發(fā)的重大問題,Zo 對(duì)敏感的話題一般會(huì)很聰明的選擇避開,當(dāng)用戶問它政治問題時(shí),Zo 會(huì)回復(fù)稱:“在討論政治時(shí),人們會(huì)發(fā)表許多可怕的言論,因此我選擇回避政治問題?!?/p>
目前,Zo 目前只出現(xiàn)在聊天應(yīng)用 Kik 的平臺(tái)上,微軟這次對(duì)平臺(tái)的選擇很謹(jǐn)慎。不過隨著模型的成熟,預(yù)計(jì) Zo 將會(huì)重新回到 Twitter、Facebook Messenger 和 Snapchat 等所有主流平臺(tái)。
眼看升級(jí)版 Tay 重新回到人們的視線,同時(shí)更換了新品牌名 Zo,那么這半年間微軟是如何訓(xùn)練 Tay 的呢?雷鋒網(wǎng)整理了 Dave Gershgorn 對(duì)納德拉的采訪,一起看看微軟納德拉是怎么回答的。
納德拉:這是一個(gè)大問題!
我從 Tay 身上得到的最大收獲之一就是,我們需要打造出能夠抵御惡意攻擊的人工智能。
有個(gè)有趣的現(xiàn)象是,Tay 在 Twitter上引發(fā)巨大爭議,但我們?cè)谥袊鴽]有遇到同樣的事情。聊天機(jī)器人在中國進(jìn)行的社交對(duì)話是不同的,如果你把它置于美國的語料庫當(dāng)中,結(jié)果就不一樣了。
當(dāng)然,Tay 還遇到了集中攻擊,這些攻擊就像如今開發(fā)軟件要能經(jīng)受住 DDOS 攻擊,你也要能夠經(jīng)受住語料庫攻擊——這種攻擊試圖污染語料庫,對(duì) AI 進(jìn)行誤導(dǎo),從而讓 AI 學(xué)習(xí)模型選中錯(cuò)誤的東西。
我們正想方設(shè)法應(yīng)對(duì)這些挑戰(zhàn)。
我們開發(fā) Tay 是作為一個(gè)學(xué)習(xí)模型的原型產(chǎn)品。
我們也并沒有說自己想要推出某個(gè)完美無缺的東西,它不像 Windows 10 的發(fā)布,它屬于那種研究項(xiàng)目,而不是用來賺錢的產(chǎn)品。
盡管有那種種爭議,但這個(gè)項(xiàng)目確實(shí)幫到了我們,也起到了很好的號(hào)召作用,讓我們更好地為自己所談?wù)摰脑O(shè)計(jì)原則打好基礎(chǔ),負(fù)起更大的算法責(zé)任,思考質(zhì)量保證意味著什么。以及思考你是基于公開語料庫發(fā)布產(chǎn)品,還是先發(fā)布到一個(gè)不同的語料庫中并進(jìn)行觀察。
這些都是我們正在學(xué)習(xí)和改進(jìn)的技術(shù)。
納德拉:我做的第一件事情,就是在微軟內(nèi)部提出原則,讓開發(fā)者重視這些問題:
我們打造的機(jī)器智能是在幫助人類嗎?是在增強(qiáng)人類嗎?
我看到微軟開發(fā)的任何一款人工智能產(chǎn)品時(shí),首先會(huì)問:
它增強(qiáng)了什么?做了哪些賦權(quán)?用了哪些我們可以在算法上負(fù)起責(zé)任的訓(xùn)練方法?
這些都要求都可以具體落實(shí)。不過,我并不想簡單地把這些要求當(dāng)成業(yè)績指標(biāo)類。落實(shí)這些要求,在于我們的開發(fā)人員、設(shè)計(jì)師以及產(chǎn)品選擇對(duì)這些問題的敏感性。
一家公司想要提供優(yōu)秀的用戶體驗(yàn),都要提到設(shè)計(jì)原則,那么對(duì)于優(yōu)秀的人工智能,它的設(shè)計(jì)原則是什么呢?
這個(gè)問題,我一直在思考。
納德拉:以圖像識(shí)別為例。
如果我們的圖像識(shí)別 API 本身就存在一些偏見,這有可能是因?yàn)槿狈?shù)據(jù),或者是特征選擇出了問題,又或者是我們構(gòu)建的卷積神經(jīng)網(wǎng)絡(luò)偏離了設(shè)計(jì)。我完全認(rèn)為,我們必須負(fù)起責(zé)任,就像我們?yōu)槟切┸浖┒磽?dān)負(fù)責(zé)任一樣。
人工智能運(yùn)作的參數(shù)最終還是由人類工程師定義的。
并不是說我們想要所有事情時(shí)時(shí)刻刻都做到完美,但如果有人發(fā)現(xiàn)某個(gè)地方存在錯(cuò)誤,那么我們就會(huì)對(duì)它進(jìn)行重新訓(xùn)練。
納德拉:我想我們會(huì)找到答案的。
我認(rèn)為有些特定的業(yè)務(wù)和特定的業(yè)務(wù)流程,如買保險(xiǎn)是非常適合聊天機(jī)器人的,這可以通過設(shè)計(jì)實(shí)現(xiàn)。
事實(shí)上,監(jiān)管的要求是當(dāng)你購買保險(xiǎn)時(shí),使用聊天機(jī)器人的效果往往要比自己通過移動(dòng)應(yīng)用或網(wǎng)站摸索好得多。
納德拉:這個(gè)問題可以分為多個(gè)層次,教導(dǎo)計(jì)算機(jī)學(xué)會(huì)人類語言是我們的終極任務(wù)之一。
這些任務(wù)需要一步一步地來做,在 AI 學(xué)會(huì)自由運(yùn)用人類語言之前,首先要讓它理解你來我往的對(duì)話。只不過實(shí)現(xiàn)語言生成是一個(gè)通用人工智能(AGI)問題,它并不是一個(gè)應(yīng)用人工智能問題。
研究者必須掌握一種通用人工智能和通用學(xué)習(xí)模型,它要能充分理解人類知識(shí)和詞匯中的所有語義。
只要遇到歧義和錯(cuò)誤,就需要思考如何讓人工介入進(jìn)行調(diào)校,以及如何升級(jí)到由人來做出選擇。在我看來,這就是 AI 產(chǎn)品最講究的地方。
如果有一定比例會(huì)出現(xiàn)歧義和錯(cuò)誤,那研究人員必須要有處理異常情況的能力,可是這首先要能夠檢測(cè)出異常的地方來。幸運(yùn)的是,在人工智能中,你擁有信心和概率分布的支持。這種情況下必須利用所有這一切讓人類介入進(jìn)來。
以客戶支持為例,我們也承認(rèn)虛擬助理并不能夠回答所有問題。
此類任務(wù)可能需要涉及到讓真人客服參與進(jìn)行處理,這時(shí)候聊天機(jī)器人就從主角變成了配角。
客服代表回答問題,然后虛擬助理藉由強(qiáng)化學(xué)習(xí)從中汲取經(jīng)驗(yàn)教訓(xùn)。
所以,那樣的過程將會(huì)幫助我們做得越來越好。但是,要做到這一點(diǎn),我們需要在通用學(xué)習(xí)技術(shù)上取得突破性進(jìn)展。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。