丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預覽,將在時失效
人工智能 正文
發(fā)私信給楊曉凡
發(fā)送

2

DeepMind 提出 GQN,神經網絡也有空間想象力

本文作者: 楊曉凡 2018-06-15 22:15
導語:強大的場景表征,和仿佛學到了環(huán)境常識的渲染器

DeepMind 提出 GQN,神經網絡也有空間想象力

雷鋒網 AI 科技評論按:人類理解一個視覺場景的過程遠比看上去復雜,我們的大腦能夠根據(jù)已有的先驗知識進行推理,推理的結果所能涵蓋的內容也要遠超出視網膜接收到的光線模式的豐富程度。比如,即便是第一次走進某個房間,你也能馬上就認出房間里都有哪些東西、它們的位置又都在哪里。如果你看到了一張桌子下面有三條腿,你很容易推斷出來很有可能它還有一條一樣形狀、一樣顏色的第四條腿,只不過現(xiàn)在不在可見范圍里而已。即便你沒法一眼看到房間里所有的東西,你也基本上能描繪出房間里的大致情況,或者想象出從另一個角度看這間房間能看到什么。

這種視覺和認知任務對于人類來說看似毫不費力,但它們對人工智能系統(tǒng)來說卻是一大挑戰(zhàn)。如今頂級的視覺識別系統(tǒng)都是由人類標注過的大規(guī)模圖像數(shù)據(jù)集訓練的。獲取這種數(shù)據(jù)成本很高,也很費時,需要人工把每個場景里的每一個物體的每一個視角都用標簽標識出來。所以最后,整個場景里往往只有一小部分的物體能被標識出來,這也就限制了在這樣的數(shù)據(jù)上訓練的人工智能系統(tǒng)的能力。隨著研究員們開發(fā)能夠運行在現(xiàn)實世界里的機器系統(tǒng),我們也希望它們能夠完全理解它們所處的環(huán)境 —— 比如最近的能夠站穩(wěn)的平面在哪里?沙發(fā)的材質是什么?這些陰影是哪個光源造成的?燈光開關有可能在哪里?

DeepMind 近期發(fā)表在 Science 雜志上的論文《Neural Scene Representation and Rendering》(神經網絡場景表征與渲染)就研究了這個問題,這篇文章是對雷鋒網 AI 科技評論對 DeepMind 的論文介紹博客的編譯。論文中他們提出了生成式詢問網絡 GQN(Generative Query Network),這是一個可以讓機器在場景中移動,根據(jù)移動過程中它們收集到的數(shù)據(jù)進行訓練,從而學會理解它們自己的所處環(huán)境的網絡框架。就像嬰兒和動物一樣,GQN 嘗試理解自己觀察到的所處的世界的樣子,從而進行學習。在這個過程中,GQN 基本學到了場景的大致樣子、學到了它的幾何特點,而且不需要人類對場景中的任何物體進行標注。

DeepMind 提出 GQN,神經網絡也有空間想象力

GQN 模型由兩部分組成:一個表征網絡和一個生成網絡。表征網絡把智能體觀察到的畫面作為輸入,然后生成一個表征向量,這個向量就描述了網絡認識到的場景。生成網絡接下來就會從一個之前未使用過的觀察角度對場景進行預測(也可以說是「想象」)。

表征網絡并不知道生成網絡要預測的視角是什么樣的,所以它需要找到盡可能高效的方式、盡可能準確地表征出場景的真實布局。它的做法是捕捉最重要的元素,比如物體的位置、顏色以及整個屋子的布局,在簡明的分布式表征中記錄下來。在訓練過程中,生成器逐漸學到了環(huán)境中的典型的物體、特征、物體間關系以及一些基本規(guī)律。由于有了這組共享的「概念般」的表示方法,表征網絡也就可以用一種高度壓縮、抽象的方式描述場景,然后生成器會自動補足其它必要的細節(jié)。例如,表征網絡可以簡潔地用一組數(shù)字代表「藍色方塊」,同時生成器網絡也知道給定一個視角以后要如何把這串數(shù)字再次轉化為像素點。

DeepMind 在一組模擬的 3D 世界環(huán)境中進行了控制實驗,環(huán)境里有隨機位置、顏色、形狀、紋理的多個物體,光源是隨機的,觀察到的圖像中也有許多遮擋。在環(huán)境中訓練過后,DeepMind 的研究人員們用 GQN 的表征網絡為新的、從未見過的場景生成表征。通過實驗,研究人員們表明了 GQN 有以下幾個重要的特性:

  • GQN 的生成網絡可以以驚人的精確性從新的視角為從未見過的場景生成「想象」的圖像。對于給定的場景表征和新的視角,生成網絡不需要任何透視、遮擋、光照條件的先驗指定,就可以生成清晰的圖像。這樣一來,生成網絡也就是一個從數(shù)據(jù)學到的不錯的圖像渲染器。

DeepMind 提出 GQN,神經網絡也有空間想象力

  • GQN 的 表征網絡不需要任何物體級別的標簽就可以學會計數(shù)、定位以及分類。即便網絡生成的表征規(guī)模不大,GQN 對于提問視角的預測也很準確,與事實相差無幾。這表明表征網絡對場景的感知也很準確,比如準確描述了下面這個場景中組成積木的方塊的具體狀況。

DeepMind 提出 GQN,神經網絡也有空間想象力

  • GQN 能表征、測量以及減小不確定性。它自己對于場景的認知中可以包含一定的不確定性,尤其對于場景中的部分內容不可見的情況,它可以組合多個部分的視角,形成一個一致的整體理解。下圖通過第一人稱視角以及上帝視角展示了網絡的這項能力。網絡通過生成一系列不同的預測結果的方式展現(xiàn)出了不確定性,而隨著智能體在迷宮中四處移動,不確定的范圍逐漸減小。(圖中灰色圓錐表示觀察的位置,黃色圓錐表示提問的位置)

DeepMind 提出 GQN,神經網絡也有空間想象力

  • GQN 的表征為魯棒、樣本高效的強化學習帶來了可能。把 GQN 的緊湊的表征作為輸入,相比無模型的基準線智能體,目前頂級的強化學習智能體能夠以更數(shù)據(jù)高效的方式進行學習,如下圖所示。對于這些智能體來說,生成網絡中編碼的信息可以看做是存儲了這些環(huán)境的「固有信息」、「通用特性」。

DeepMind 提出 GQN,神經網絡也有空間想象力

通過使用 GQN,DeepMind 的研究人員們觀察到了數(shù)據(jù)效率顯著更高的策略學習,相比一個標準的、把原始像素作為數(shù)據(jù)的方法,它與環(huán)境交互的數(shù)量只需要大概 1/4 就可以得到接近收斂級別的表現(xiàn)。

GQN 是基于多視角幾何、生成式建模、無監(jiān)督學習和預測學習方面的大量近期論文構建的,DeepMind 也在這篇報告中介紹了相關工作。GQN 介紹了一種新的方式從物理場景學習緊湊的、可靠的表征。最關鍵的是,所提的方法也不需要任何專門針對領域的工程設計或者耗時的內容標注,所以同一個模型可以用在多種不同的環(huán)境中。它還學到了一個強有力的神經網絡渲染器,能夠從新的視角為場景生成準確的圖像。

不過 DeepMind 也表示,相比傳統(tǒng)的計算機視覺技術,GQN 也遇到了諸多限制,目前也只嘗試了在生成的場景中訓練。不過,隨著獲得新的數(shù)據(jù)、硬件方面得到新的提升,他們也希望未來能夠在更高分辨率的、真實的場景中研究 GQN 網絡框架的應用。在后續(xù)研究中,研究如何把 GQN 應用到場景理解的更多層面上也是一個重要課題,比如通過對于一段時間和空間的提問,讓模型學會一些物理原理和運動常識;GQN 在虛擬現(xiàn)實、增強現(xiàn)實中也有機會得到應用。

雖然這項方法距離實際應用還有很長的距離,但 DeepMind 相信這是向著全自動場景理解的目標的重要一步。

論文地址(Science版):http://science.sciencemag.org/content/sci/360/6394/1204.full.pdf

論文地址(Open Access 版):https://deepmind.com/documents/211/Neural_Scene_Representation_and_Rendering_preprint.pdf

via DeepMind Blog,雷鋒網 AI 科技評論編譯

雷峰網版權文章,未經授權禁止轉載。詳情見轉載須知。

DeepMind 提出 GQN,神經網絡也有空間想象力

分享:
相關文章

讀論文為生

日常笑點滴,學術死腦筋
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經綁定,現(xiàn)在您可以設置密碼以方便用郵箱登錄
立即設置 以后再說