1
本文作者: AI研習(xí)社 | 編輯:賈智龍 | 2017-07-24 16:18 | 專題:CVPR 2017 |
【雷鋒字幕組】招募進(jìn)行時(shí)
我們是一個(gè)由海內(nèi)外優(yōu)秀開(kāi)發(fā)者組成的志愿者團(tuán)隊(duì),致力于經(jīng)典機(jī)器學(xué)習(xí)課程及 AI 前沿學(xué)術(shù)成果傳播,有著完善的入組學(xué)習(xí)機(jī)制和豐富的資源福利。如果你熱衷于 AI 技術(shù)學(xué)習(xí)和分享,那你還在等什么?快來(lái)加入我們雷鋒網(wǎng)吧!歡迎添加組長(zhǎng)微信 jadelover11 加入字幕組~
歡迎來(lái)到,空氣中都飄散著 “論文味” 的夏威夷。
今年,國(guó)際計(jì)算機(jī)視覺(jué)與模式識(shí)別頂級(jí)會(huì)議(CVPR 2017)將于 7 月 21 日—7 月 26 日在美國(guó)夏威夷召開(kāi)。我們的記者團(tuán)也特赴夏威夷,在接下來(lái)幾天為大家?guī)?lái)一手報(bào)道。
會(huì)議官方網(wǎng)站最新的數(shù)據(jù)顯示,今年,CVPR 共收到 2680 有效投稿,一共有 783 篇論文被接收,其中有 71 篇獲得 12 分鐘口頭報(bào)告(Oral ),144 篇獲得 4 分鐘短報(bào)告(Spotlights)的展示機(jī)會(huì)。
我們精選其中 5 篇論文,帶大家概覽國(guó)際學(xué)術(shù)界在動(dòng)作識(shí)別、計(jì)算呈像、視覺(jué)跟蹤、時(shí)間定位、圖像數(shù)據(jù)庫(kù)方面的創(chuàng)新成果,除了論文下載、項(xiàng)目地址等資源鏈接,還有即將呈現(xiàn)在大會(huì)現(xiàn)場(chǎng)口頭報(bào)告的視頻,讓大家先睹為快。
1. 即時(shí)多人動(dòng)作姿勢(shì)辨識(shí)
Realtime Multi-Person 2D Human Pose Estimation using Part Affinity Fields(CVPR 2017 Oral)
(2016 CHAMPION OF MSCOCO KEYPOINT DETECTION)
這是卡內(nèi)基美隆 (CMU)Robostic Institute 的作品——Multi-Person Pose Estimation。
至于什么是 Multi-Person 2D Human Pose Estimation,請(qǐng)參考下面的鬼畜動(dòng)圖:
GitHub 代碼地址:
論文地址:
https://arxiv.org/abs/1611.08050
論文作者: Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh
2. 電網(wǎng)計(jì)算呈像
Computational Imaging on the Electric Grid (CVPR 2017 Oral)
這是以色列理工大學(xué)(Technion-Israel Institute of Technology)和多倫多大學(xué) (University of Toronto) 學(xué)生的夜間交流電照明作品。
跟著忽明忽暗的電流搖擺,搜集和制作燈泡響應(yīng)函數(shù)數(shù)據(jù)庫(kù),讓我們看到以下新場(chǎng)景:
論文簡(jiǎn)介:
https://www.marksheinin.com/acam
論文地址:
論文作者:Mark Sheinin, Yoav Y. Schechner, Kiriakos. N. Kutulakos
3. 視覺(jué)跟蹤技術(shù)
Action-Decision Networks for Visual Tracking with Deep Reinforcement Learning (CVPR 2017)
這款基于深度加強(qiáng)學(xué)習(xí)的一種新視覺(jué)跟蹤系統(tǒng),在實(shí)現(xiàn)光計(jì)算的同時(shí),在位置和刻度上都更加精準(zhǔn)。
在高速運(yùn)動(dòng)中識(shí)別人臉,還是相當(dāng)厲害的:
論文簡(jiǎn)介:
https://sites.google.com/view/cvpr2017-adnet
論文作者:Sangdoo Yun,Jongwon Choi,Youngjoon Yoo,Kimin Yun,Jin Young Choi
4. 時(shí)間操作定位
CDC: Conv-De-Conv Networks for Precise Temporal Action Localization (CVPR 2017 Oral)
運(yùn)用 Conv-De-Conv Networks,更好地進(jìn)行精準(zhǔn)時(shí)間定位。不僅知道一個(gè)動(dòng)作在視頻中是否發(fā)生,還知道動(dòng)作發(fā)生在視頻的哪段時(shí)間,擊球、投球、回旋時(shí)間都能精準(zhǔn)定位,適用各種體育賽事。
代碼:
https://bitbucket.org/columbiadvmm/cdc
論文下載:
https://arxiv.org/abs/1703.01515
論文作者: Zheng Shou, Jonathan Chan, Alireza Zareian, Shih-Fu Chang,Kazuyuki Miyazawa
5. 三維圖像重建室內(nèi)場(chǎng)景
ScanNet: Richly-annotated 3D Reconstructions of Indoor Scenes (CVPR 2017 Spotlight)
斯坦福大學(xué)、普林斯頓大學(xué)以及慕尼黑工業(yè)大學(xué)聯(lián)合推出了一個(gè)龐大的三維圖像數(shù)據(jù)庫(kù) ScanNet ,可以作為機(jī)器人識(shí)物的數(shù)據(jù)輸入。
機(jī)器人識(shí)別房間里各種各樣的物體,什么是門,什么是墻,拎得倍兒清。
項(xiàng)目頁(yè)面:
論文作者:Angela Dai,Angel X. Chang , Manolis Savva,Maciej Halber Thomas Funkhouser,MatthiasNie?ner
全部論文名單地址:
http://www.cvpapers.com/cvpr2017.html
雷鋒字幕組志愿者
下列同學(xué)參與了本文 / 視頻的譯制工作!
雷鋒網(wǎng)按:本文為雷鋒網(wǎng)原創(chuàng),轉(zhuǎn)載請(qǐng)參考轉(zhuǎn)載說(shuō)明。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。
本專題其他文章