0
本文作者: 楊曉凡 | 2017-07-22 21:59 | 專(zhuān)題:CVPR 2017 |
雷鋒網(wǎng) AI 科技評(píng)論按:計(jì)算機(jī)視覺(jué)的頂級(jí)會(huì)議 CVPR 2017 已經(jīng)開(kāi)始了,AI 研究巨頭 Facebook 今天也發(fā)出一篇博文介紹自己都將在本屆 CVPR 中展現(xiàn)哪些成果。博文中主要內(nèi)容編譯如下。
Facebook 連接性實(shí)驗(yàn)室研究員 Ilke Demir、Ramesh Raskar 等人與 MIT 媒體實(shí)驗(yàn)室共同完成的論文「Robocodes: Towards Generative Street Addresses from Satellite Imagery」(用衛(wèi)星圖像生成街道地址的 Robocodes 系統(tǒng))獲得了本屆 CVPR 的最佳 workshop 論文獎(jiǎng)。這項(xiàng)研究會(huì)在 EarthVision Workshop 中展示,這個(gè) workshop 關(guān)注的內(nèi)容就是用于遙測(cè)感知圖像的大規(guī)模計(jì)算機(jī)視覺(jué)。
這篇論文的主要內(nèi)容是:隨著全球地理空間內(nèi)容的數(shù)量不斷增長(zhǎng),地圖的作用越來(lái)越重要。然而世界上仍然有高達(dá)70%的區(qū)域尚未詳細(xì)繪制在地圖中,而且也沒(méi)有什么生成式的方法可以自動(dòng)繪制這些未知區(qū)域。目前的方法都還依靠準(zhǔn)確的路面幾何特征,而論文中的新方法就解決了地理特征標(biāo)識(shí)的語(yǔ)義問(wèn)題,能夠基于 5m x 5m 的網(wǎng)格為街道生成地址。
計(jì)算機(jī)視覺(jué)和遙測(cè)感知研究社區(qū)近期開(kāi)始把注意力轉(zhuǎn)向從衛(wèi)星照片中學(xué)習(xí)重要特征。有許多研究成果以前看起來(lái)理論性很強(qiáng),現(xiàn)在都可以用來(lái)對(duì)世界產(chǎn)生實(shí)實(shí)在在的影響。
“這個(gè)世界以及用于理解這個(gè)的技術(shù)正在從信號(hào)、文本、語(yǔ)音這樣的單維度數(shù)據(jù)轉(zhuǎn)變?yōu)槎嗑S度的,比如圖像、視頻和三維空間。計(jì)算機(jī)視覺(jué)技術(shù)就正在縮小這個(gè)真實(shí)的多維世界和我們個(gè)人的Facebook世界之間的距離。我們的研究就是為了讓用戶(hù)與世界之間的距離更小?!盕acebook的博士后研究員 Ilke Demir 如此說(shuō)道?!矮@得這項(xiàng)最佳論文獎(jiǎng)也讓我們更加堅(jiān)信我們的系統(tǒng)完成以后可以為世界上的其它區(qū)域進(jìn)行不重復(fù)的定位,尤其是在自然災(zāi)害高發(fā)區(qū)、地圖上未繪制的地區(qū)這樣的缺乏城市基礎(chǔ)設(shè)施的地方?!?/p>
訓(xùn)練、部署人工智能模型經(jīng)常需要和大規(guī)模數(shù)據(jù)中心甚至超級(jí)計(jì)算機(jī)聯(lián)系起來(lái),為了能夠連續(xù)地處理、創(chuàng)建和優(yōu)化模型,這樣的資源往往是必須的,這樣模型才有能力處理海量的圖像、視頻、文字和語(yǔ)音信息。如果想要在移動(dòng)設(shè)備上部署這些模型,還要足夠快、輕量,同樣對(duì)許許多多的研究人員來(lái)說(shuō)是個(gè)大麻煩。為了解決這些麻煩,F(xiàn)acebook 幾個(gè)月前發(fā)布了 Caffe2,為以上的問(wèn)題提供了一個(gè)魯棒的、靈活的、可移動(dòng)的深度學(xué)習(xí)框架。Caffe2的輕量、模塊式的結(jié)構(gòu)不僅大幅度提高了可移動(dòng)性,而且還保持了同等的可拓展性和計(jì)算性能。
在此次 CVPR 中,F(xiàn)acebook 就會(huì)在7月24號(hào)下午5點(diǎn)到6點(diǎn)舉行一個(gè)見(jiàn)面會(huì),會(huì)上關(guān)注的主要內(nèi)容是各方對(duì)于Caffe2的反饋。Facebook 同時(shí)還鼓勵(lì)研究人員們運(yùn)用 Caffe2 進(jìn)行智能理解、構(gòu)建智能系統(tǒng)的研究,并申請(qǐng) Caffe2 研究獎(jiǎng)(https://research.fb.com/programs/research-awards/proposals/caffe2-rfp/ )。大家的老熟人、Facebook 研發(fā)科學(xué)家賈楊清也說(shuō):“我們會(huì)一直致力于為人工智能研究社區(qū)提供高性能的機(jī)器學(xué)習(xí)工具,這樣每個(gè)人都能夠創(chuàng)建屬于自己的智能應(yīng)用和服務(wù)。”
讓計(jì)算機(jī)理解圖像中的東西是什么,然后把它和聊天機(jī)器人對(duì)話(huà)聯(lián)系起來(lái),這種任務(wù)對(duì)內(nèi)容理解的要求達(dá)到了新的高度。在本屆 CVPR 中,F(xiàn)acebook 的研究員們就會(huì)帶來(lái)數(shù)篇這方面的論文。
另外,7月26日那天 Facebook 還會(huì)與喬治亞理工大學(xué)、弗吉尼亞理工大學(xué)一起主持一場(chǎng)視覺(jué)問(wèn)題問(wèn)答 Workshop (Visual Question Answering),到時(shí)會(huì)有很多對(duì)視覺(jué)問(wèn)題問(wèn)答感興趣的專(zhuān)家共同分享他們眼中最優(yōu)秀的方案、最佳的實(shí)驗(yàn)經(jīng)歷以及多模態(tài)人工智能的未來(lái)方向。
這個(gè) workshop 的目的是帶來(lái)第二版的視覺(jué)問(wèn)題問(wèn)答挑戰(zhàn)賽,這個(gè)挑戰(zhàn)賽基于的是 CVPR 2017論文「Making the V in VQA Matter: Elevating the Role of Image Understanding in Visual Question Answering」中提出的 VQA 數(shù)據(jù)集的2.0版本。這項(xiàng)比賽給基于 VQA 2.0版本數(shù)據(jù)集的算法提供了一個(gè)測(cè)試機(jī)會(huì),并且要從中發(fā)現(xiàn)能夠真正理解 VQA 數(shù)據(jù)集中的圖像內(nèi)容從而發(fā)揮出良好表現(xiàn)的最先進(jìn)的算法。
Facebook 希望 CVPR 的參會(huì)者們到時(shí)候可以留意一下 Facebook 的研究人員和工程師們的最新成果,最好也能在 session 結(jié)束以后一起在展廳聊聊。
此次 CVPR 中 Facebook 將要展示的研究成果有如下這么多,感興趣的讀者可以具體關(guān)注一下。
Aggregated Residual Transformations for Deep Neural Networks
CLEVR: A Diagnostic Dataset for Compositional Language and Elementary Visual Reasoning
Hard Mixtures of Experts for Large Scale Weakly Supervised Vision
Link the Head to the “Beak”: Zero Shot Learning From Noisy Text Description at Part Precision
Relationship Proposal Networks
Robocodes: Towards Generative Street Addresses from Satellite Imagery
Visual Dialog
另外,雷鋒網(wǎng) AI 科技評(píng)論記者已經(jīng)到達(dá) CVPR 會(huì)場(chǎng),并將全方位地報(bào)道此次 CVPR 大會(huì)。請(qǐng)繼續(xù)關(guān)注雷鋒網(wǎng) AI 科技評(píng)論對(duì)近期各大學(xué)術(shù)會(huì)議的報(bào)道文章。
相關(guān)文章:
本次CVPR上,李飛飛團(tuán)隊(duì)都中了哪8篇論文? | CVPR 2017
CVPR第一天前線(xiàn)速報(bào):展臺(tái)布置緊鑼密鼓,tutorial和workshop緊湊而充實(shí)|CVPR 2017
雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。
本專(zhuān)題其他文章