1
本文作者: 奕欣 | 2017-10-18 18:02 |
雷鋒網(wǎng)AI科技評論按:在 IJCAI 2017的 Early Career Spotlight 環(huán)節(jié)上,共有15位來自全球各地的杰出青年科學(xué)家來到現(xiàn)場分享他們的學(xué)術(shù)成果,其中有四位華人學(xué)者,他們分別是:
新加坡南洋理工大學(xué)計算機(jī)科學(xué)與工程學(xué)院南洋助理教授安波;
清華大學(xué)交叉信息研究院青年千人助理教授唐平中;
美國倫斯勒理工大學(xué)計算機(jī)學(xué)院助理教授夏立榮;
美國亞利桑那州立大學(xué)計算信息和決策系統(tǒng)工程學(xué)院助理教授何京芮。
雷鋒網(wǎng)AI科技評論將先后放出這四位華人學(xué)者的系列專訪,夏立榮博士的本篇專訪為此系列的第三篇,往期報道可查看:
夏立榮,美國倫斯勒理工學(xué)院(RPI)計算機(jī)系助理教授,在 2013 年加入 RPI 之前,他是哈佛大學(xué)計算與社會研究中心的 CRCS fellow 和 NSF CI Fellow。他博士和碩士分別畢業(yè)于杜克大學(xué)計算機(jī)系和經(jīng)濟(jì)系。他的研究主要集中在計算機(jī)科學(xué)和微觀經(jīng)濟(jì)學(xué)的交叉研究。他是 Mathematical Social Sciences 的副主編和 Artificial Intelligence Journal 的編委會委員,曾任 Journal of Artificial Intelligence Research 的編委會委員。他獲得過 NSF CAREER award,Simons-Berkeley Research Fellowship, IEEE Intelligent Systems 的 AI's 10 to watch 之一。
在 IJCAI 2017 的 Early Career Spotlight 上,夏立榮博士發(fā)表了題為《Improving Group Decision-Making by Artificial Intelligence》的演講。從「人機(jī)合作」和「以人為本(human-aware)」兩個角度,如何理解改善群體決策的研究的?
夏立榮博士認(rèn)為,群體決策是人類社會中十分常見的問題。大到政治選舉,國防,醫(yī)療,經(jīng)濟(jì)等重要決策,小到企業(yè)招聘,朋友聚餐點菜等,都屬于群體決策的范疇?!咐щy之處在于人們的偏好經(jīng)常不一致,導(dǎo)致經(jīng)常不存在對所有人都最優(yōu)的決策。如何在整體效率和公平性之間找到一個平衡,甚至如何定義效率和公平性,是解決問題的關(guān)鍵。關(guān)于這個問題,傳統(tǒng)的研究主要集中于經(jīng)濟(jì)學(xué)領(lǐng)域尤其是社會選擇理論中(social choice theory)?!?/p>
先進(jìn)的群體決策理論和應(yīng)用與 AI 的發(fā)展方向密不可分。夏立榮博士告訴雷鋒網(wǎng) AI 科技評論,斯坦福大學(xué)的 AI 百年研究報告指出(雷鋒網(wǎng) AI 科技評論按:即《Artificial Intelligence and Life in 2030》,報告全文可在「AI 科技評論」微信后臺回復(fù)「2030」下載),未來 AI 的發(fā)展會更多地強(qiáng)調(diào)人機(jī)合作以及以人為本,而其中,群體決策就是一個典型的例子:智能系統(tǒng)需要從人類獲取偏好和信息,而最終決策必須考慮對人類的影響。「比如說,在群體決策這個問題上人機(jī)合作包括如何獲取人的偏好,如何更好的促進(jìn)信息共享,如何找到不一致的觀點等;了解人類方面包括如何做出公平和魯棒的決策,如何考慮人類的策略行為等?!梗ɡ卒h網(wǎng) AI 科技評論按:具體的研究內(nèi)容,可參見新近出版的《Handbook of Computational Social Choice》,出版社提供免費 PDF 下載)
根據(jù)我們的認(rèn)知,在改善群體決策的過程中,AI 所承擔(dān)的風(fēng)險與實際應(yīng)用的場景大小呈正比。越高風(fēng)險的決策往往更加復(fù)雜,人類也會更加謹(jǐn)慎,那么人類如何在 AI 的幫助下,實現(xiàn)應(yīng)用層面的風(fēng)險控制及效率提升的平衡呢?根據(jù)夏立榮博士的說法,我們首先需要一個人類對于風(fēng)險和效率的偏好模型。所幸經(jīng)濟(jì)學(xué),心理學(xué)以及決策論有許多成熟的準(zhǔn)則。在 AI 的幫助下,人類可以更好更快的探索風(fēng)險和效率最好的平衡。但具體應(yīng)用的時候又是如何知道一個人對于風(fēng)險和效率的態(tài)度呢?這里又回到前面提及的人機(jī)合作和以人為本?!钢悄芟到y(tǒng)需要知道人類的態(tài)度,理解人類的需求,從而設(shè)計有效的算法。」
Early career spotlight 是 IJCAI 2016 新增加的項目,報告者需要由 IJCAI 程序委員會成員提名。從夏立榮博士的個人感覺而言,有點像專門為青年學(xué)者準(zhǔn)備的特邀報告,研究做得越好,被邀請的幾率越高。今年能受邀參加 IJCAI 2017的 Early Career Spotlight 環(huán)節(jié),夏立榮博士認(rèn)為于他而言是一個很大的榮幸,希望能借助這個機(jī)會,讓更多的人了解群體決策(甚至更廣義的經(jīng)濟(jì)與計算方向)的重要性。
同時,夏立榮博士也非常謙遜地告訴雷鋒網(wǎng) AI 科技評論,除了 Early Career Spotlight 演講嘉賓以外,還有很多非常值得關(guān)注的科學(xué)家,「比如 IEEE Intelligent Systems 每兩年一度評選的 AI's 10 to watch。其中有不少華人,包括哈佛的陳怡玲老師,RPI 的季姮老師,清華的朱軍老師等。偏理論一點的上海財經(jīng)大學(xué)的陸品燕老師的工作也非常值得關(guān)注?!?/p>
在 Early Career Spotlight 的演講中,針對統(tǒng)計、計算及經(jīng)濟(jì)學(xué)三個維度,夏立榮博士向聽眾詳細(xì)介紹了自己的三個工作方向。
統(tǒng)計和機(jī)器學(xué)習(xí)方面,夏立榮博士和合作者的貢獻(xiàn)主要在于刻畫和計算統(tǒng)計意義上最優(yōu)的群體策略。這個方向最經(jīng)典的結(jié)果是 1785 年的 Condorcet Jury Theorem:在一定的假設(shè)下,所有人投票選出的決策優(yōu)于單個人做出的決策。這個思想和機(jī)器學(xué)習(xí)中的集成學(xué)習(xí)思想類似?!妇唧w來講,我們提出了廣義隨機(jī)效用模型的第一個參數(shù)估計算法,第一個主動學(xué)習(xí)算法,以及第一個混合模型的可辨識性定理。我們第一個在群體決策的背景下用社會選擇理論中的公平性原則來衡量貝葉斯估計,并證明了第一個關(guān)于貝葉斯估計的不可能定理。我們還提出了一個 Mallows 模型下貝葉斯推斷的蒙特卡洛算法,并第一個給出了混合時間的理論上界。」
計算方面,夏立榮博士及團(tuán)隊的主要貢獻(xiàn)在于研究如何用高計算復(fù)雜度防止群體決策中的操控現(xiàn)象(manipulation),即群體中的某些個體通過撒謊而獲得對他自己更加有利的結(jié)果。通過研究,團(tuán)隊的主要理論結(jié)果顯示:高計算復(fù)雜度在某些群體決策系統(tǒng)里可以比較好的防止操控現(xiàn)象,而在另外一些系統(tǒng)里則不是那么有效。
「在經(jīng)濟(jì)學(xué)方面,我們的一個主要研究方向是組合域投票(combinatorial voting)。即,人們經(jīng)常要對若干個相關(guān)的問題同時做出決策?!贡确秸f,假設(shè)我們要決定下一年度的財政支出計劃。對于國防,教育,醫(yī)療,養(yǎng)老,工業(yè),金融,基建等問題都要決定是加大投入,減少投入,還是維持不變。由于決策空間過于復(fù)雜,如何獲取個體的偏好都成為了一個非常具有挑戰(zhàn)性的問題。夏立榮博士及合作者通過利用知識表示(knowledge representation)中的方法讓個體表達(dá)偏好,并在此基礎(chǔ)之上設(shè)計高效和公平的群體決策機(jī)制。
目前,夏立榮博士在計算方面的工作和經(jīng)濟(jì)學(xué)方面的工作可以在 《Handbook of Computational Social Choice》 的第 6 章和第 9 章找到。而他在統(tǒng)計和機(jī)器學(xué)習(xí)方面的研究被 《Synthesis Lectures on Artificial Intelligence and Machine Learning》 邀請,計劃于 2019 年初出版。
而對于這三個工作方向,夏立榮博士向雷鋒網(wǎng) AI 科技評論表示,它們能主要應(yīng)用在日常生活中的群體決策場景。社會選擇理論和機(jī)制設(shè)計理論的傳統(tǒng)做法是對特定的場景單獨設(shè)計一個機(jī)制,經(jīng)典案例如總統(tǒng)選舉或拍賣環(huán)節(jié)。然而,隨著智能群體決策系統(tǒng)更加廣泛和深入地進(jìn)入我們的日常生活,每次群體決策都找專人單獨設(shè)計一個新的機(jī)制并不現(xiàn)實。夏立榮博士的想法是將這個設(shè)計過程自動化:決策者可以隨意提出這個機(jī)制需要滿足的公平性原則以及其他要求,隨后框架能自動計算出盡量滿足決策者要求的機(jī)制。這并不是一個簡單的優(yōu)化問題,并且類似的想法在機(jī)制設(shè)計中已經(jīng)被提出,但以往的技術(shù)并不能用到群體決策問題中。
不過夏立榮博士也提及,其中最大的挑戰(zhàn)可能是如何勸說大眾使用機(jī)器設(shè)計出來的群體決策機(jī)制。「人們在做決策的時候還是傾向于使用自己能完全理解的機(jī)制,而機(jī)器設(shè)計的機(jī)制可能超出了一般人的可接受范圍。如何自動設(shè)計簡單的、可解釋的機(jī)制是我們正在研究的目標(biāo)?!?/p>
在決策中,不確定條件下決策分析是一個非常成熟的方向。「從建模的角度來講,我認(rèn)為不確定條件下決策分析的難度在于,沒有一個統(tǒng)一的理論能完全解釋人類對于不同決策的偏好。實際應(yīng)用中,決策論中一些常用的目標(biāo)經(jīng)常被用到,比如 maximum expected utility, minimax regret 等。技術(shù)上來講,主要難點在于對應(yīng)的單目標(biāo)或多目標(biāo)規(guī)劃問題復(fù)雜的經(jīng)常很高?!?/p>
夏立榮博士表示,最近 RPI 和 IBM 合作建立了一個新的實驗室 Cognitive and Immersive Systems Lab,旨在研發(fā)新一代的智能決策系統(tǒng)。實驗室主任蘇輝教授的愿景是,希望這個系統(tǒng)能從人類參與者之間的自然交流獲取信息,搜索并將新的信息整合反饋,最終人機(jī)合作達(dá)到預(yù)設(shè)的目標(biāo),比如做出一個群體決策。在這個系統(tǒng)中,智能系統(tǒng)通過對人類參與者的語言,動作,表情等進(jìn)行分析,從而抽象出情感,偏好等相關(guān)信息?;谶@些信息的極大不確定性和決策空間的復(fù)雜性,各種方法都可以在其中發(fā)揮應(yīng)用余地,包括機(jī)器學(xué)習(xí)、多目標(biāo)規(guī)劃以及優(yōu)化等。
而在開源當(dāng)?shù)赖拇蟓h(huán)境下,夏立榮博士所在的研究小組也做了一些開源的嘗試。 這個名為「OPRA」(Online Preference Reporting and Aggregation)的開源系統(tǒng)。這個項目一開始是為了給討論課上的同學(xué)們安排文章和報告文章的日期。同學(xué)們對文章和日期的偏好有時候有很大沖突,所以很難找到一個讓所有人都滿意的日程安排?!高@里的情況類似于組合域投票,很多問題都是現(xiàn)有的方法無法解決的。比如如何有效地獲取人的偏好,如何有效地找到?jīng)_突以及幫助人們解決沖突等等。當(dāng)時就在想建立一個平臺,整合最新的理論結(jié)果來幫助人們做群體決策,比如前面所講的,我們在機(jī)器學(xué)習(xí)方面和組合域投票方面的工作?!?/p>
根據(jù)夏立榮博士的介紹,OPRA 目前主要用在 RPI 內(nèi)部幫助學(xué)生和老師做決策。除了制定討論課日程外,OPRA 還用于讓 RPI 計算機(jī)系學(xué)生通過投票選出最佳 poster 獎,在課上讓學(xué)生決定答疑日期和復(fù)習(xí)題目,舉行課堂小測驗等等。而夏博士表示,短期內(nèi)希望以 RPI 為平臺來開展更廣泛的應(yīng)用,比如基于偏好匹配老師和助教,幫助學(xué)生尋找兼職等?!肝覀冋谂c RPI 學(xué)生會合作,希望將 OPRA 用到一年一度的學(xué)生領(lǐng)袖選舉中。長期來講,我們希望 OPRA 能成為最好的在線群體決策平臺?!?/p>
由于是完全開源的系統(tǒng),如果任何人想使用部分或者全部代碼,或者有任何問題和建議,夏立榮博士表示非常歡迎給他來信。(OPRA地址:http://www.opra.io)
「有趣、有用」,這是夏立榮博士提及人工智能、多智能體及不確定性決策領(lǐng)域的最大感觸。他表示,經(jīng)濟(jì)學(xué)和其他社會科學(xué)給傳統(tǒng)的 AI 系統(tǒng)優(yōu)化帶來了很多有趣的角度,比如博弈論中考慮的人類參與者的動機(jī)以及對整個系統(tǒng)的影響,又比如機(jī)器學(xué)習(xí)算法的公平性等。另一方面,夏立榮博士認(rèn)為 AI 技術(shù)的發(fā)展幫助我們解決了許多問題,比如幫助人們更好的做出群體決策。同時又派生出了很多新的研究方向,比如 AI 和道德,AI 和可持續(xù)性發(fā)展等等。
而研究的下一步,夏立榮博士計劃按照斯坦福 AI 百年研究報告所揭示的,以更好的人機(jī)合作和以人為本為目標(biāo),繼續(xù)發(fā)展群體決策理論和構(gòu)建群體決策系統(tǒng)(比如 OPRA),特別是從統(tǒng)計、計算、以及經(jīng)濟(jì)學(xué)的角度來設(shè)計并衡量群體決策系統(tǒng)。
夏立榮博士認(rèn)為,因為新的事物需要花一定的時間才能被人們接受,因此決策機(jī)制的實際應(yīng)用和很多其他 AI 系統(tǒng)一樣,直接廣泛應(yīng)用的難度很大。所以,他近期計劃將研究重點放在其中相對風(fēng)險比較低的日常生活場景上,當(dāng)人們逐漸習(xí)慣并接受之后,再擴(kuò)展到更重要的決策場景。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。