0
本文作者: 章敏 | 2016-08-31 17:11 |
導(dǎo)讀:ECAI 2016是歐洲展示AI科學(xué)成果的最佳場(chǎng)所,大會(huì)為研究人員提供了很好的機(jī)會(huì),去介紹和聽(tīng)取當(dāng)代最優(yōu)秀的人工智能研究成果。
摘要:行人再識(shí)別的目標(biāo)是從不同地方的多個(gè)相機(jī)視角識(shí)別同一個(gè)人的圖像,這在人工智能和多媒體領(lǐng)域引發(fā)了濃厚的研究興趣。度量學(xué)習(xí)方法作為它的流行研究方向這一,在尋求適當(dāng)?shù)亩攘靠臻g生成精確的特征比較方面起著重要作用。然而,現(xiàn)有的度量學(xué)習(xí)方法主要是通過(guò)單一的度量學(xué)習(xí)最佳的距離度量函數(shù),這使它們難以考慮樣本之間的多重相似關(guān)系。為了解決該問(wèn)題,本文提出了一種由淺入深(coarse-to-fine)的深度量學(xué)習(xí)方法,它配備多個(gè)不同的堆疊自動(dòng)編碼器(SAE)網(wǎng)絡(luò)和分類(lèi)網(wǎng)絡(luò)。在人的視覺(jué)機(jī)制視角下,多個(gè)不同層次的深神經(jīng)網(wǎng)絡(luò)模擬大腦視覺(jué)系統(tǒng)處理信息,它采用不同的模式來(lái)識(shí)別對(duì)象的字符。此外,我們還提出了一種加權(quán)分配機(jī)制,以處理不同測(cè)量方式的最終識(shí)別精度。在兩個(gè)公共數(shù)據(jù)集(VIPeR和CUHK)上進(jìn)行實(shí)驗(yàn)的結(jié)果顯示了所提出方法的預(yù)期性能。
Mingfu Xiong
任職:武漢大學(xué)
本次研究中,我們提出了一種利用多重由淺入微的自動(dòng)編碼模型方法,處理不同環(huán)境變化中行人再識(shí)別問(wèn)題。我們的算法中訓(xùn)練了幾個(gè)不同的SAE網(wǎng)絡(luò),每一個(gè)網(wǎng)絡(luò)后面都有一個(gè)softmax分類(lèi)器,因此我們可以建立有不同隱藏層的神經(jīng)網(wǎng)絡(luò)模擬大腦的視覺(jué)皮層。預(yù)處理后的行人圖像對(duì)通過(guò)減去用于網(wǎng)絡(luò)輸入的平均值,產(chǎn)生一對(duì)分類(lèi)結(jié)果。最后,進(jìn)一步使用加權(quán)分配機(jī)制,以提高所獲得分類(lèi)結(jié)果的識(shí)別精度。在兩個(gè)公眾數(shù)據(jù)集上大量實(shí)驗(yàn)的結(jié)果顯示了我們算法的優(yōu)越性。
我們建立的多重由淺入微的深度度量學(xué)習(xí)方法可以擴(kuò)展到其它視覺(jué)應(yīng)用,例如圖像分類(lèi),對(duì)象檢測(cè)等。
via:ECAI 2016
PS : 本文由雷鋒網(wǎng)獨(dú)家編譯,未經(jīng)許可拒絕轉(zhuǎn)載!
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。