丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

本文作者: 我在思考中 2021-11-04 10:18
導(dǎo)語:再強大的RL智能體想要走進現(xiàn)實世界,也要過了“合作”這一關(guān)。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

作者 | 青暮、眉釘

諸如《星際爭霸》等復(fù)雜游戲,是AI模擬現(xiàn)實的絕佳場景。

如果AI在復(fù)雜的環(huán)境中,學(xué)會和人一樣實時感知、分析、理解、推理、決策并行動,那么就可能在多變、復(fù)雜的現(xiàn)實環(huán)境中發(fā)揮更大的作用。

近年來,從國際象棋、德州撲克到《星際爭霸》,基于強化學(xué)習(xí)(reinforcement learning )算法的AI智能體早已達到人類頂級玩家水平。如DeepMind出品的AlphaStar早已在國際排位賽中達到宗師水平,完敗99.8%的人類。

但在這些游戲中,AI與人類都表現(xiàn)為”對抗關(guān)系”

如果讓AI與人類“配合”打游戲,強化學(xué)習(xí)智能體能成為一個“好隊友”嗎?

最近,麻省理工林肯實驗室研究團隊在arXiv提交了一篇新論文《Evaluation of Human-AI Teams for Learned and Rule-Based Agents in Hanabi》,論文表明,盡管強化學(xué)習(xí)智能體在Go、星際爭霸等競爭性游戲表現(xiàn)相當優(yōu)異,但它們與人類合作玩游戲時,在簡單的紙牌游戲中表現(xiàn)都很“糟糕”。

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

論文地址:https://arxiv.org/pdf/2107.07630.pdf

在這項研究中,研究團隊評估了基于規(guī)則和基于學(xué)習(xí)的兩類AI智能體,在紙牌游戲(Hanabi)中與人類合作的表現(xiàn),通過游戲分數(shù)、團隊績效、可解釋性、信任度和總體偏好等指標測量,他們發(fā)現(xiàn),在幾乎所有主觀指標中,人類對基于規(guī)則的智能體隊友的“好感”明顯高于基于學(xué)習(xí)的智能體,而且對后者大多持負面評價。

作者表示,雖然強化學(xué)習(xí)智能體在對抗性游戲中創(chuàng)造了超人AI,但人類不該理所當然地認為RL系統(tǒng)在所有應(yīng)用中都能表現(xiàn)優(yōu)越,在目前的技術(shù)水平下,基于學(xué)習(xí)的智能體要想成為人機互動的最佳“隊友”并不那么容易。

同時,論文中也強調(diào)雖然最終游戲得分幾乎沒有差別,但我們應(yīng)該將主觀評價納入智能體的的考核標準,而不是單一地關(guān)注客觀任務(wù)績效。



1

RL智能在“人機合作”中有多菜?

強化學(xué)習(xí)(reinforcement learning)是訓(xùn)練AI智能體最常用的算法,它為智能體在游戲場景中提供了更靈活的動作,接收環(huán)境信息的反饋機制以及作戰(zhàn)目標,如今基于強化學(xué)習(xí)的智能體已經(jīng)不再需要人類玩家的游戲數(shù)據(jù),而是可以在自我游戲模式下從頭開始訓(xùn)練。

在棋盤游戲、街機游戲、實時戰(zhàn)略游戲、多人作戰(zhàn)以及模擬空中格斗等游戲中,RL智能體的表現(xiàn)已經(jīng)達到了人類玩家的水平,甚至碾壓頂級職業(yè)玩家。一個典型的例子是在AlphaGo與頂級圍棋選手李世石的對戰(zhàn)賽中,智能體憑借一步精絕之棋,扭轉(zhuǎn)局面首戰(zhàn)人類!

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

然而,RL智能體在以上游戲中的優(yōu)勢都是在純粹的對抗性、單人或雙人游戲中進行的。要想將智能體的AI能力擴展到現(xiàn)實世界,還必須能夠展示團隊智能,特別是與人類隊友合作的團隊智能。
論文作者Ross Allen表示,現(xiàn)實世界中的復(fù)雜性、不確定性、數(shù)據(jù)稀缺性以及決策周期和目標定位都是智能體面臨的難題。盡管如此,智能體依然需要與人類協(xié)作,解決現(xiàn)實世界中深度學(xué)習(xí)應(yīng)用的技術(shù)壁壘。
需要強調(diào)的是,不同于智能體之間的協(xié)作,要想與人類達成有效合作,AI隊友需要表現(xiàn)出適當水平的人類反應(yīng),比如信任、精神負荷和風險感知等。考慮本次研究目的是評估在不完全信息博弈中的人工智能團隊的合作,不僅要考慮到人類AI團隊的客觀表現(xiàn),而且考慮到不同類型的人工智能隊友工作時的主觀人類反應(yīng)和偏好。
在諸多游戲中,研究人員最終挑選了紙牌游戲Hanabi(花火)用于實驗。紙牌游戲規(guī)則簡單,又需要在限信息內(nèi)充分發(fā)揮合作優(yōu)勢。Allen表示,“在解決現(xiàn)實世界中的問題時,最好從簡單的做法開始做起” 。近年來,很多研究團隊基于Hanabi游戲開發(fā)智能體,其中部分智能體是基于符號AI,部分使用強化學(xué)習(xí)。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”
Hanabi需要兩到五名玩家按照特定的順序合作玩牌,玩家們向后舉牌,相互不能面對面,但每個隊員都可以看到彼此卡片。玩家可以使用有限數(shù)量的令牌來提供卡片線索,但只能利用從隊友手中看到的信息和自己手上的有限線索來制定取勝策略。
作者采取了三種游戲模式:一是自我游戲,即智能體用自己的副本參與游戲 ;二是交叉游戲,智能體需要與其他類型的智能體合作 ;三是與人類合作玩游戲,也就是交叉游戲。Allen表示,與人類的交叉游戲(也稱為人類游戲)尤其重要,它衡量了人機合作,也是論文中實驗的基礎(chǔ)。
為了測試人類與人工智能合作的效率,作者選擇了目前性能最佳的兩款智能體SmartBot(SB)和Other-Play(OP),前者是在自我游戲中表現(xiàn)最佳且基于規(guī)則的人工智能系統(tǒng),后者是在交叉游戲中排名最高的基于學(xué)習(xí)的人工智能系統(tǒng)。
在人類與AI隊友的Hanabi游戲中,玩家可以同時接觸到SmartBot和Other-Play,但不會知道是具體是哪種算法在運作。Allen表示結(jié)果令我們大吃一驚,“人類對基于學(xué)習(xí)的智能體合作評價非常負面,可以說他們討厭與它合作”。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”
根據(jù)對人類參與者的調(diào)研,與基于規(guī)則的SmartBot智能體相比,基于學(xué)習(xí)的Other-Play在體驗感上更差一些。在紙牌游戲中,向其他玩家提供"微妙暗示"的技巧是團隊取勝的關(guān)鍵之一。比如,桌子上有一張“方塊之一”牌,你的隊友手里拿著兩個方塊。通過指著牌說“ 這是一個2 ”或“這是一個正方形”,你隱隱地暗示隊友打出這張牌,但沒有向他提供這張牌的完整信息,如果是有經(jīng)驗的玩家就會立即頓悟,但如果是向AI隊友提供這樣的信息,不會得到任何反饋。



2

基于“規(guī)則”的智能體表現(xiàn)更好
研究人員從客觀和主觀兩方面評價了人工智能的合作水平??陀^指標包括分數(shù)、錯誤率等;主觀指標包括人類玩家的體驗:對AI隊友的信任度和適應(yīng)度,以及AI理解動機和預(yù)測行為的能力。
實驗的結(jié)果表明,盡管兩個智能體的合作在客觀績效方面沒有顯著差異,但主觀指標顯示,與基于學(xué)習(xí)的代理相比,人類明顯更喜歡基于規(guī)則的智能體。在論文中,作者對大多數(shù)圖進行了著色,以顯示與數(shù)據(jù)相關(guān)的參與者的自我評價和體驗水平。
如下圖顯示了智能體類型(左)和自評玩家體驗(右)的游戲分數(shù),可以看出,當與任一智能體合作時,未發(fā)現(xiàn)顯著差異,與自評體驗的相關(guān)性僅在SmartBot游戲中顯著。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”
由于分數(shù)是紙牌游戲的主要性能指標,也是RL智能體的獎勵函數(shù),因此作者研究了分數(shù)與其他一些相關(guān)性。結(jié)果顯示自評經(jīng)驗和得分在匯集兩位智能體的游戲時,呈現(xiàn)顯著的正相關(guān)(p=0.0053,r=0.214)。SB智能體在游戲子集的相關(guān)性仍然顯著(p=0.0023,r=0.247),但OP智能體的游戲相關(guān)性不顯著(p=0.0867,r=0.1881),這表明對于該雙變量分析來說,經(jīng)驗僅與SB的得分相關(guān),而與OP無關(guān)。
此外,團隊績效(G3、G4)和得分(p=0.0003,r=0.275和p=0.0002,r=0.280)之間也發(fā)現(xiàn)了顯著的正相關(guān)。但智能體的自我績效(G1、G2)與得分沒有顯著相關(guān)性。
下圖為人類玩家賽后對智能體表現(xiàn)的情緒測量,在所有智能體類型與紙牌游戲交互充分的情況下,經(jīng)驗更豐富的人類玩家對Other-Play智能體的評價要比SmartBot負面得多,而新手玩家對這兩個智能體的評價相似,SmartBot代理的新手和專家評分之間沒有顯著差異。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

在實驗分析中,作者將參與者分為“新手”(n=10,自評經(jīng)驗≤ 5) 和“專家”(n=19,自評經(jīng)驗>5)兩組,并在交互作用顯著的情況下(G3、G5、G7、G8、G9),對每種參與者的感受指標進行比較。

實驗顯示,兩組對某人的評價沒有顯著差異,但專家們對OP的評價總是比新手差。G3“團隊表現(xiàn)良好”(t(85)=3.551,p<0.001,效應(yīng)大小d=0.752)的評價差異沒有其他組(t(85)=5.068到5.855,p<0.0001,| d |>1.0)的大,但所有組都很顯著。

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”
可以注意到,有三名參與者在OP中獲得24分,其中一名參與者兩次獲得24分(沒有參與者在OP中獲得25分)。對于問題E1,三人的評價都在Likert量表的最末端回答,并傾向于選擇SB。
有趣的是,他們對OP和SB的累積分數(shù)分別為:參與者6(先玩OP,自評經(jīng)驗為7):57和28;參與者19(SB優(yōu)先,經(jīng)驗7):68和48;參與者20(OP優(yōu)先,體驗6):70和35。其中,累積分數(shù)最高的參與者的分數(shù)分別為68(OP)和54(SB),并且首選Likert評分為6的SB。
參與者評論指出,與OP合作時的低腦力負荷通常是由于對智能體感到沮喪并放棄與它合作而造成的。例如,在OP智能體未能根據(jù)人類發(fā)出的幾條提示采取行動(“我給了它信息,它卻把它扔掉了,不知道該如何與智能體合作”)。
此外,在下圖的實驗后的問題測量圖中,除E8外,所有人對基于規(guī)則的智能機器人都表現(xiàn)出統(tǒng)計上的顯著偏好(p<0.05)。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”



3

強化學(xué)習(xí)與現(xiàn)實世界的距離
這項研究測量了人類與智能體混合團隊在紙牌游戲Hanabi中的游戲性能和反應(yīng),比較了人類與基于規(guī)則的智能體協(xié)作和與基于強化學(xué)習(xí)的智能體協(xié)作的結(jié)果。盡管在這些團隊之間取得了相似的分數(shù),但人類玩家強烈傾向于與基于規(guī)則的智能體合作,并且對另一個游戲代理持否定態(tài)度,理由是人類玩家對后者的理解、信任、適應(yīng)度和感知能力體驗較差。
麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”
智能體與人類合作的能力是決定它們是否能夠在部署到現(xiàn)實世界的一個重要因素。這些結(jié)果表明,即使是最先進的RL智能體在很大程度上也無法讓人類相信它們是”好隊友”。
研究表明,智能體在’自我游戲’和‘交叉游戲’中的任務(wù)表現(xiàn),可能與人類的信任和偏好無關(guān)。考慮到訓(xùn)練基于RL的智能體需要大量數(shù)據(jù),作者認為,想要訓(xùn)練能夠與人類搭檔的RL智能體,需要找到可訓(xùn)練的目標函數(shù),即符合“人類偏好”,或與人類偏好密切相關(guān)的目標。
論文中也強調(diào),這項研究結(jié)果無法推演到其他環(huán)境、游戲或領(lǐng)域中,實驗不可避免地存在一些局限性,比如受試者數(shù)量較少(29名參與者),且傾向于精通紙牌游戲的人——他們對AI隊友有預(yù)先設(shè)定的行為期望,更有可能因為RL智能體的古怪行為而產(chǎn)生負面體驗。
但作者在論文中也表示, “如果最先進的 RL 智能體都不能在規(guī)則簡單的紙牌游戲中成為優(yōu)秀的協(xié)作者,當相同的強化學(xué)習(xí)技術(shù)應(yīng)用在更復(fù)雜、更微妙、后果導(dǎo)向性更強的現(xiàn)實世界又會如何?毫無疑問,如果要在真實世界中采用強化學(xué)習(xí)智能體,人類對AI的感知在未來AI設(shè)計和開發(fā)中需要得到更多的考慮。
原文鏈接:https://bdtechtalks.com/2021/11/01/reinforcement-learning-hanabi/

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

雷鋒網(wǎng)雷鋒網(wǎng)


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

麻省理工最新研究:血虐人類玩家的RL智能體,在紙牌游戲中從最強對手變成“豬隊友”

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說