0
本文作者: 楊波 | 2016-09-07 16:52 |
新智造按:本文作者Pascale Fung ,來源weforum,由新智造獨家編譯,未經(jīng)許可拒絕轉(zhuǎn)載!筆者最近為科普雜志《科學(xué)美國人》寫了篇文章,叫《“走心”的機器人》。文中,筆者描述了將“移情模塊”添加到機器人編程中,如此一來,它們可以更好地滿足人類的情感需求以及生理需求。文章發(fā)表后,有些讀者很好奇我們是如何將這類能感受到情感的機器人應(yīng)用到醫(yī)學(xué)和生活中的其他領(lǐng)域中去的,而另一些讀者則對機器人理解人類的情感的想法表示強烈反對,其中有一個讀者的觀點很犀利:“人之所以為人,是因為具備情感。所以,機器人真的不能具備人類的特征,這樣它們就會取代人類,去做那些人類才能做的工作?!碑?dāng)然,輿論并非一邊倒,有些讀者對這個點子非常感興趣:“如果機器人都有了智慧,并且可以感受到人類的情緒,那么在未來的某一天,它們是不是可以擁有自我意識?”
對我們而言,理解機器人智能非常重要。但是首先,我們需要懂得人類擁有自我感受的原因,以及人類感受自我的方式。
在物種進化的過程中,情緒起到什么樣的作用呢?研究顯示,人和人之間的關(guān)聯(lián)是靠友好的關(guān)系建立的。物種的生存依賴于這樣緊密關(guān)聯(lián),并且大多數(shù)時候,這種關(guān)聯(lián)是由情感支撐的。我們也可以將情緒作為信號,傳遞自己的意圖。
我們的感覺和情緒都是受到一定刺激后產(chǎn)生的,不管是外部的還是內(nèi)部的(比如記憶),因此,我們的各種生理特征可以做出受到刺激后的反應(yīng),如脈搏的跳動、汗液、面部表情、手勢和音調(diào)等等。我們也許會哭,也許會笑,也許會惡心得發(fā)抖,也可能會擔(dān)心得畏手畏腳。這些情緒不像語言,它們是自發(fā)的并自動表達的,不存在任何下意識的控制。從出生的那一刻開始,我們就開始學(xué)習(xí)理解其他人的情緒。而在嬰兒出生之前,輕輕哼唱的搖籃曲會讓他們完全放松。在出生的時候,它們就可以對父母的笑臉做出反應(yīng),并且從那天開始就可以表達自己的情緒了。
工業(yè)機器人制造了汽車和智能手機;康復(fù)機器人幫助病患重新行走;教學(xué)助手型機器人可以回答學(xué)生們的問題;軟件程序可以寫些合法的文件,甚至可以為你的作文打分;軟件系統(tǒng)可以為報紙寫故事;人工智能程序AlphaGo 打敗了圍棋九段的李世石;IBM Waston在益智問答游戲《危險邊緣》中打敗了人類;機器人甚至可以創(chuàng)作出美輪美奐的畫作,讓人們誤以為是由專業(yè)的藝術(shù)家畫的;機器還可以創(chuàng)作音樂......顯然,在某些領(lǐng)域,機器人可以被打造得比人類更強、更快、更智能,但是,它們真的需要像我們?nèi)祟愐粯泳邆涓惺芮榫w的能力嗎?
2016年早期,我們團隊宣布了第一個可以從語調(diào)中實時識別出十二種人類情緒的系統(tǒng)。在這個項目研發(fā)之前,因為一種叫“特征工程”的程序的存在,從語調(diào)中識別情緒會導(dǎo)致處理時間上的延遲,而在人機交流的場景中延遲是不自然的。那么,我們的團隊是如何突破這個障礙的呢?——我們充分理解了機器人學(xué)習(xí)的機制。
每個機器人都可以在由軟件算法驅(qū)動的硬件平臺上運行。由人類設(shè)計的算法系統(tǒng)可以告訴機器人怎么回應(yīng)一些刺激,比如,如何回答一個問題、如何在一個房間里實現(xiàn)自我導(dǎo)航,這就像建筑師在建房子——一個AI工程師可以縱覽機器人完成任務(wù)的整體藍圖。編程知識用代碼讓機器人識別可能存在的阻礙,完成任務(wù)。其中一個非常中大的阻礙是機器人學(xué)習(xí)——也就是讓機器能夠?qū)W習(xí)并模仿和人類相似的回應(yīng)的算法,比如玩象棋和回答問題等等。
人工智能領(lǐng)域最大的突破是機器人學(xué)習(xí)。它并不是編程算法中設(shè)計的有預(yù)測性地回應(yīng)某個請求的結(jié)果,相反,機器人可以通過現(xiàn)實世界中的很多關(guān)于刺激反應(yīng)的例子進行學(xué)習(xí)。如果機器人看到很多被標(biāo)注了“貓”的有著貓咪的畫作,它可以用其中任何一個機器學(xué)習(xí)算法,識別其他它沒有看到的畫里的貓。同理,如果一個機器可以瀏覽萬億的網(wǎng)頁和翻譯實例,它就可以學(xué)會像谷歌翻譯那樣的翻譯技能。
機器學(xué)習(xí)最重要的部分就是學(xué)會理解特征的代表。一只貓可以由它的輪廓、利爪、面部和身體姿勢表示。話語可以由聲音的頻率分量來辨別。話語中的情緒不止可以通過音高進行識別,音色、節(jié)奏、速度都可以作為識別特征。機器學(xué)習(xí)首先需要構(gòu)建特征工程,對這些特征進行抓取。而對于音調(diào)而言,特征工程會抓取一個聲音中的1000到2500個特征,這個過程會在整個情緒識別過程中放緩。接著,這幾千個特征會被由人類著手處理,它們中的每個都需要處理的時間和過程。
最近,科學(xué)家們用機器加速和大量的學(xué)習(xí)數(shù)據(jù),在神經(jīng)網(wǎng)絡(luò)(又名深度學(xué)習(xí))領(lǐng)域做了幾項突破,這導(dǎo)致了機器學(xué)習(xí)領(lǐng)域的飛速發(fā)展。首先,一些深度學(xué)習(xí)方法,比如卷積神經(jīng)網(wǎng)絡(luò)(CNN)可以在沒有明確的、延遲的特征工程或是人類設(shè)計的情況下,在學(xué)習(xí)過程中自動習(xí)得這些特征。這大概是深度學(xué)習(xí)對AI領(lǐng)域做出的最大的貢獻了。
回到我們從聲調(diào)中識別情緒的系統(tǒng)中來,我們做的是用一個簡單的卷積神經(jīng)網(wǎng)絡(luò)替換特征工程和分類學(xué)習(xí),它可以學(xué)得很好(即使不比分類機器學(xué)習(xí)好,但是要比它快很多),因為它不需要明確且緩慢的特征工程過程。類似地,面部識別也可以通過卷積神經(jīng)網(wǎng)絡(luò)來實現(xiàn)。
另外,科學(xué)家們也在研發(fā)讓機器人通過改變音高,和小發(fā)動機控制合成的面部肌肉表達情感的方式。Sofia和Erica就是兩個有面部表情的人形機器人。
第四次工業(yè)革命就在眼前了。技術(shù)已經(jīng)在很多領(lǐng)域取代了人們的地位。以前需要花費很多年,甚至幾十年才能學(xué)成的技術(shù),如今在一夜間已經(jīng)過時了。目前,很多人都沒有意識到AI和機器人領(lǐng)域進步的速度,并且以他們當(dāng)下目睹的情況,推測機器人會在三十年到五十年內(nèi)統(tǒng)治世界。這種機器人威脅論近來被炒得很熱,很多人對機器人的存在誠惶誠恐。
實際上,這種預(yù)測在前幾次工業(yè)革命中就已經(jīng)存在了,那時候人們擔(dān)心蒸汽機和計算機會讓人類的勞作顯得多余。但眾所周知的是,人類一直都在學(xué)各種不同的技術(shù)來操縱這些機器。
然而,隨著更多的AI和機器人的運用,人和機器人之間的新關(guān)系會出現(xiàn)。對人類而言,想要減少恐懼,去相信一個能走、能說、能做出各種姿勢、能負重的機器人,我們需要做到的是,與機器人實現(xiàn)情感的互通。將機器人和其他電子設(shè)備區(qū)分開的是它先進的機械智能以及情緒。對家庭護理機器人而言,理解嬰兒的哭聲,或是病人痛苦的呻吟非常重要。對那些智能的機器人而言,它們需要“走心”。
如果一個機器人擁有了分析技術(shù)、學(xué)習(xí)能力、溝通能力,甚至是情緒,它們會有自我意識嗎?它們會有感知能力嗎?它們會做夢嗎?
上文提到的神經(jīng)網(wǎng)絡(luò)不像其他的機器人學(xué)習(xí)算法那樣,會讓人類更確定自己才是主宰者。神經(jīng)網(wǎng)絡(luò)甚至可以產(chǎn)生一些隨機的,像夢境一般的圖像,讓人們相信機器人是可以做夢的。
問題是,作為人類的我們自己明白是什么讓我們擁有感知能力嗎?它是不是只是感官理解和思考過程的結(jié)合?AI科學(xué)家們無法回答這個問題,但是我們相信,要打造好的機器人,我們需要將那些符合倫理道德規(guī)定的價值觀傳遞給它們,這些價值規(guī)范能幫助它們做出決定。有了機器人智能領(lǐng)域的相關(guān)拓展,將這些價值觀教授到機器人會變得和教育兒童一樣重要。目前,我們的下一個挑戰(zhàn)是,在機器人有了先決的情緒理解和溝通技巧后,讓機器自動學(xué)習(xí)這樣的價值觀。
via weforum
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。