丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D

本文作者: 我在思考中 2021-10-15 18:37
導(dǎo)語:Ego4D收集的第一視角數(shù)據(jù)集,將在不遠的將來帶給我們前所未有的體驗。

Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D

1. 左:同一場景在第一視角和第三視角下;右:第一視角視頻采集設(shè)備

從第三視角看世界,和從第一視角和世界互動,有顯著差異。比如說,看別人坐過山車和自己坐過山車,體驗完全不同。

本文摘要翻譯自NUS新聞:https://news.nus.edu.sg/nus-facebook-world-class-universities-teach-ai-to-understand-the-world-through-our-eyes/

為了開啟下一波AI技術(shù)浪潮,為增強現(xiàn)實 (AR) 和智能機器人賦能,AI需要從現(xiàn)在的第三視角轉(zhuǎn)換成第一視角的全新范式。這是因為在第一視角的世界中,常有實時的運動變化,手與物體的交互,多種感官的信息融合。

為此,Facebook聯(lián)合新加坡國立大學(xué) (NUS) 、MIT等世界各地的13所大學(xué)組成了一個學(xué)術(shù)聯(lián)盟,致力于開展一個長期項目——Ego4D(第一視角的 4D 實時感知 )。

Ego4D鏈接:https://ego4d-data.org/

來自NUS研究團隊的Principal Investigator(主要負責人),助理教授Mike壽政說:“在過去十年里,我們見證了AI在理解圖像方面的變革,這是建立在 ImageNet 等數(shù)據(jù)集所奠定的基礎(chǔ)上的。類似的,我相信我們的 Ego4D 數(shù)據(jù)集,將為第一視角的視頻研究打好基礎(chǔ),從而推動智能感知在 AR 和機器人方面的快速發(fā)展。”



1

目前最大的第一視角視頻數(shù)據(jù)集


Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D 

2. Ego4D 是目前最大的第一視角的日?;顒右曨l數(shù)據(jù)集

大多數(shù)AI系統(tǒng)需要大量數(shù)據(jù)進行訓(xùn)練,現(xiàn)有的大規(guī)模視頻數(shù)據(jù)集通常以第三視角為主;而現(xiàn)有的第一視角數(shù)據(jù)集在規(guī)模、多樣性和復(fù)雜性上都很有限。因此,該學(xué)術(shù)聯(lián)盟推出了 Ego4D 數(shù)據(jù)集:

● 大規(guī)模:研究人員分發(fā)頭戴式相機或者AR眼鏡給數(shù)據(jù)采集者,從而收集了累計3,000 小時的、日?;顒又械牡谝灰暯且曨l;

● In-the-wild:包含了人們的日常生活的數(shù)百種不同活動,記錄了相機佩戴者在關(guān)注什么,用手和面前的物體做什么,以及他們是如何與其他人互動的;

● 多樣性:涵蓋全球 73 個地點、9個國家,700 多名不同背景、種族、職業(yè)、年齡的數(shù)據(jù)采集者,囊括不同的文化和地理差異;

● 抽好的特征:所有視頻,均有預(yù)先抽好的SlowFast特征,方便大家進行實驗;

● 授權(quán)公開:這些數(shù)據(jù)將于 2021 年 11 月公開,視頻中的所有可見人臉和可聽懂的語音均已獲得參與者的授權(quán)。



2

新任務(wù),新技術(shù)
Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D 

3. 通過采集的第一視角視頻數(shù)據(jù),Ego4D團隊可以開發(fā)AI模型來解決新的任務(wù)

與數(shù)據(jù)收集同樣重要的是,定義正確的任務(wù),進行嚴格的人工標注,來引導(dǎo)新技術(shù)的研發(fā)。

為此,Ego4D 學(xué)術(shù)聯(lián)盟聯(lián)合構(gòu)建了五個全新的、具有挑戰(zhàn)性的任務(wù):

(1) 情景記憶:什么時候發(fā)生了什么?如圖3A, 告訴我錢包最近一次出現(xiàn)的位置。

(2) 預(yù)測未來:我接下來要做什么?如圖3B, 他即將跳起來抓住單杠。

(3) 手與物體交互:我在做什么以及如何做?如圖3C, 告訴我下一步的操作。

(4) 視覺+聽覺:多人場景下,誰在什么時候說了什么?如圖3D, 生成會議內(nèi)容的總結(jié)。

(5) 社交交互:人與人如何交互?如圖3D, 我注視著他,而他正在對我說話。

“我們NUS研究團隊主要為其中兩個關(guān)鍵任務(wù)開發(fā)模型:一是,利用聲音和視覺線索幫助AI識別“誰在什么時候說了什么;二是,開發(fā)具有社交智能的 AI,檢測當下誰在對誰說話,誰在關(guān)注誰。”同樣來自NUS團隊的Co-PI李海洲教授如是說。

有第一視角感知能力的AI,將賦能AR眼鏡、智能機器人等等同樣是第一視角的設(shè)備,將在我們的日常生活和工作中發(fā)揮更大作用。想象一下:在對著新菜譜做菜時,不必再來來回回地看菜譜,你的AR 眼鏡就可以實時地同步指導(dǎo)你執(zhí)行每個步驟;對于有阿爾茨海默癥等健康問題的人,AR眼鏡可以幫助他們回憶錢包放在哪里了。

Ego4D數(shù)據(jù)集只是起點,研發(fā)第一視角AI技術(shù),進而賦能智能機器人、AR眼鏡,將在不遠的將來,改變我們的生活、工作、娛樂方式,帶給我們前所未有的、虛擬與現(xiàn)實交融的體驗。

更多技術(shù)詳情請見Arxiv論文:https://arxiv.org/abs/2110.07058
附:
Ego4D 計劃的學(xué)術(shù)聯(lián)盟包括以下主要負責人:CV Jawahar (印度國際信息科技研究院,海得拉巴), David Crandall (印第安納大學(xué)), Dima Damen (布里斯托大學(xué)), Giovanni Maria Farinella (卡塔尼亞大學(xué)), Kristen Grauman (Facebook AI), Bernard Ghanem (阿卜杜拉國王科技大學(xué)), Jitendra Malik (Facebook AI), Kris Kitani (卡內(nèi)基梅隆大學(xué)和卡內(nèi)基梅隆大學(xué)非洲校區(qū)), Aude Oliva (麻省理工學(xué)院), Hyun Soo Park (明尼蘇達大學(xué)), Jim Rehg (佐治亞理工學(xué)院), Yoichi Sato (東京大學(xué)), Jianbo Shi (賓夕法尼亞大學(xué)), Antonio Torralba (麻省理工學(xué)院), Mike Zheng Shou (新加坡國立大學(xué)), and Pablo Arbelaez (哥倫比亞安第斯大學(xué))。

Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D

雷鋒網(wǎng)


雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

Facebook和NUS、MIT等高校聯(lián)合推出3000小時的第一視角視頻數(shù)據(jù)集Ego4D

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說