丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
業(yè)界 正文
發(fā)私信給木子
發(fā)送

0

華人科學(xué)家一人斬獲三篇CVPR論文!曾主持天貓精靈開(kāi)發(fā),技術(shù)成果或?qū)a(chǎn)品化

本文作者: 木子 2017-07-25 16:04 專(zhuān)題:CVPR 2017
導(dǎo)語(yǔ):近日美國(guó)夏威夷刮起了“阿里旋風(fēng)”。繼淘寶的“拍立淘”讓外國(guó)工程師大呼好用之后,又傳來(lái)阿里巴巴人工智能實(shí)驗(yàn)室共有三篇論文入選 CVPR 2017 的好消息。

近日美國(guó)夏威夷刮起了“阿里旋風(fēng)”。繼淘寶的“拍立淘”讓外國(guó)工程師大呼好用之后,又傳來(lái)阿里巴巴人工智能實(shí)驗(yàn)室共有三篇論文入選 CVPR 2017 的好消息。

CVPR被譽(yù)為科技界中的“春晚”,是近十年來(lái)計(jì)算機(jī)視覺(jué)領(lǐng)域全球最有影響力、內(nèi)容最全面的頂級(jí)學(xué)術(shù)會(huì)議,由全球最大的非營(yíng)利性專(zhuān)業(yè)技術(shù)學(xué)會(huì)IEEE(電氣和電子工程師協(xié)會(huì))主辦。2017谷歌學(xué)術(shù)指標(biāo)(Google Scholar)按論文引用率排名, CVPR位列計(jì)算機(jī)視覺(jué)領(lǐng)域榜首。據(jù)CVPR評(píng)委會(huì)披露,今年CVPR審核了2620篇文章,最終收錄783篇,錄取率為29%。

阿里巴巴人工智能實(shí)驗(yàn)室此次入選的三篇論文均有杰出科學(xué)家王剛的深度參與,分別針對(duì)深度學(xué)習(xí)和計(jì)算機(jī)視覺(jué)所涉及的上下文模擬、場(chǎng)景分割、行為理解等問(wèn)題提出了解決辦法。 王剛向記者表示,“這三篇論文都來(lái)自于深度學(xué)習(xí)中的應(yīng)用場(chǎng)景,未來(lái)或?qū)⑼ㄟ^(guò)人工智能實(shí)驗(yàn)室進(jìn)行落地,例如運(yùn)用到家庭安全監(jiān)測(cè)場(chǎng)景中”。

王剛于2017年3月加入阿里巴巴人工智能實(shí)驗(yàn)室,擔(dān)任杰出科學(xué)家,負(fù)責(zé)機(jī)器學(xué)習(xí)、計(jì)算機(jī)視覺(jué)和自然語(yǔ)言理解的研發(fā)工作。他此前曾是南洋理工大學(xué)的終身教授,同時(shí)也是人工智能領(lǐng)域最頂尖雜志IEEE Transactions on Pattern Analysis and Machine Intelligence的編委 (Associate Editor),曾多次受邀成為人工智能頂級(jí)學(xué)術(shù)會(huì)議如International Conference on Computer Vision的領(lǐng)域主席,在深度學(xué)習(xí)算法領(lǐng)域具有深厚的研究積累和國(guó)際權(quán)威。2016年,他還因在深度神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)上的卓越貢獻(xiàn),成為當(dāng)年《麻省理工技術(shù)評(píng)論雜志》評(píng)選出的10名亞洲區(qū)35歲以下青年創(chuàng)新獎(jiǎng)得主之一。

以下是對(duì)三篇論文的解讀

1. Deep Level Sets for Salient Object Detection

結(jié)合深度網(wǎng)絡(luò)的水平集方法在顯著性目標(biāo)檢測(cè)中的應(yīng)用

簡(jiǎn)介:

華人科學(xué)家一人斬獲三篇CVPR論文!曾主持天貓精靈開(kāi)發(fā),技術(shù)成果或?qū)a(chǎn)品化

如圖,a是輸入圖像,b是對(duì)應(yīng)saliency區(qū)域的ground truth,c、d對(duì)應(yīng)使用BCE loss訓(xùn)練的深度網(wǎng)絡(luò)和使用水平集方法的效果,e對(duì)應(yīng)論文的方法;可以看到e在分割細(xì)節(jié)方面和ground truth最為接近,效果更好,在細(xì)節(jié)方面提升明顯。

顯著性目標(biāo)檢測(cè)能夠幫助計(jì)算機(jī)發(fā)現(xiàn)圖片中最吸引人注意的區(qū)域,有效的圖像分割和圖像的語(yǔ)意屬性對(duì)顯著性目標(biāo)檢測(cè)非常重要。由南洋理工大學(xué)和阿里巴巴人工智能實(shí)驗(yàn)室合作,共同提出了一種結(jié)合深度網(wǎng)絡(luò)的水平集方法,將分割信息和語(yǔ)意信息進(jìn)行結(jié)合,獲得了很好的效果。水平集方法是處理封閉運(yùn)動(dòng)界面隨時(shí)間演化過(guò)程中幾何拓?fù)渥兓挠行У挠?jì)算工具,后來(lái)被用到圖像分割算法當(dāng)中。深度學(xué)習(xí)能夠很好的建模顯著性目標(biāo)的語(yǔ)意屬性,進(jìn)而進(jìn)行顯著性目標(biāo)檢測(cè),但更多的語(yǔ)意屬性信息導(dǎo)致分割邊界的低層信息不準(zhǔn)確。論文巧妙的結(jié)合了深度網(wǎng)絡(luò)和水平集方法(Deep Level Sets),同時(shí)利用圖片低層的邊界信息以及高層的語(yǔ)意信息,在顯著性目標(biāo)檢測(cè)領(lǐng)域獲得了state-of-art的效果。

2. Global Context-Aware Attention LSTM Networks for 3D Action Recognition

將全局上下文注意力機(jī)制引入長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的3D動(dòng)作識(shí)別

簡(jiǎn)介: 華人科學(xué)家一人斬獲三篇CVPR論文!曾主持天貓精靈開(kāi)發(fā),技術(shù)成果或?qū)a(chǎn)品化

如圖,3D動(dòng)作識(shí)別能夠幫助計(jì)算及更好的理解人體動(dòng)作(最左側(cè)的文字),未來(lái)可以作為人機(jī)交互的一種補(bǔ)充。

3D動(dòng)作識(shí)別能夠幫助計(jì)算機(jī)更好的分析人的動(dòng)作以及為多樣化的人機(jī)交互提供更多的選擇。一個(gè)好的3D動(dòng)作識(shí)別系統(tǒng)需要很好的處理動(dòng)作在時(shí)間(動(dòng)作需要一定時(shí)延)、空間(結(jié)構(gòu))上的信息。LSTM(長(zhǎng)短時(shí)記憶網(wǎng)絡(luò))能夠很好的建模動(dòng)態(tài)的、相互依賴的時(shí)間序列數(shù)據(jù)(如人的3D動(dòng)作序列),注意力機(jī)制能夠更有效的獲取數(shù)據(jù)中的結(jié)構(gòu)信息,并排除掉噪聲的干擾。由南洋理工大學(xué)、北京大學(xué)、阿里巴巴人工智能實(shí)驗(yàn)室合作,論文結(jié)合LSTM和上下文注意力機(jī)制,提出了一種新的LSTM網(wǎng)絡(luò):GCA-LSTM(Global Context-Aware Attention LSTM);用來(lái)建模動(dòng)作序列中有效的全局上下文信息(時(shí)間信息+空間信息),進(jìn)而進(jìn)行3D動(dòng)作識(shí)別。同時(shí),論文為GCA-LSTM網(wǎng)絡(luò)提出了一種循環(huán)注意力機(jī)制來(lái)迭代提升注意力模型的效果。論文方法在3個(gè)主流的3D動(dòng)作識(shí)別數(shù)據(jù)集上都達(dá)到了state-of-art的效果。

3. Episodic CAMN: Contextual Attention-based Memory Networks With Iterative Feedback For Scene Labeling

引入迭代反饋的上下文注意力機(jī)制記憶網(wǎng)絡(luò)在場(chǎng)景分割中的應(yīng)用

簡(jiǎn)介:

華人科學(xué)家一人斬獲三篇CVPR論文!曾主持天貓精靈開(kāi)發(fā),技術(shù)成果或?qū)a(chǎn)品化

如圖,這是場(chǎng)景分隔在自動(dòng)駕駛中的應(yīng)用,通過(guò)對(duì)路面場(chǎng)景進(jìn)行分割,可以幫助無(wú)人車(chē)分析那部分區(qū)域是可行駛區(qū)域(如圖粉紅色部分)。

場(chǎng)景分割有著廣闊的應(yīng)用前景,比如自動(dòng)駕駛汽車(chē)通過(guò)場(chǎng)景分割獲取可行駛區(qū)域,比如室內(nèi)機(jī)器人通過(guò)場(chǎng)景分割獲知室內(nèi)物體的分布。場(chǎng)景分割對(duì)待分割區(qū)域周?chē)膮^(qū)域以及全局信息有較強(qiáng)的依賴關(guān)系,但這種依賴關(guān)系是動(dòng)態(tài)變化的(即使同一區(qū)域在不同的場(chǎng)景中對(duì)周?chē)畔⒌囊蕾囀遣煌模虼藙?dòng)態(tài)的獲知不同區(qū)域的依賴關(guān)系以及圖像全局上下文特征的使用至關(guān)重要。由南洋理工大學(xué),伊利諾伊大學(xué)厄巴納-香檳分校,阿里巴巴人工智能實(shí)驗(yàn)室合作,論文通過(guò)一個(gè)可學(xué)習(xí)的注意力機(jī)制網(wǎng)絡(luò)來(lái)刻畫(huà)不同區(qū)域之間的依賴關(guān)系,并獲取包含上下文信息的特征。進(jìn)一步,論文通過(guò)引入迭代反饋的方式對(duì)注意力機(jī)制網(wǎng)絡(luò)的輸出進(jìn)行調(diào)節(jié),以獲得更好的包含上下文的特征。上述方法在場(chǎng)景分隔任務(wù)中獲得了和當(dāng)前state-of-art算法相當(dāng)?shù)男Ч?/p>

雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知

分享:
當(dāng)月熱門(mén)文章
最新文章
請(qǐng)?zhí)顚?xiě)申請(qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說(shuō)