丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

本文作者: 我在思考中 2022-05-17 09:56
導(dǎo)語:結(jié)合Transformer和對比學(xué)習(xí),自監(jiān)督長視頻逐幀動作表征最新進展!

浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

浙大蔡登團隊攜手微軟亞洲研究院,提出了一個新的對比動作表征學(xué)習(xí)(CARL)框架,以自監(jiān)督的方式學(xué)習(xí)逐幀動作表征,尤其是針對長視頻;它考慮了時空上下文來提取逐幀表征,是一種基于Transformer的簡單而高效的視頻編碼器。

他們提出了一種新的序列對比損失(SCL),應(yīng)用于通過一系列時空數(shù)據(jù)增強獲得的兩個相關(guān)的視圖。在FineGym、PennAction和Pouring數(shù)據(jù)集上的實驗表明,該方法在下游細粒度動作分類方面大大優(yōu)于已有的最新技術(shù)。值得一提的是,雖然沒有用成對視頻進行訓(xùn)練,但該方法在視頻對齊和細粒度幀檢索任務(wù)方面也有著出色的表現(xiàn)。

編譯 | 龔倩

編輯 | 陳彩嫻



1

引言
浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

論文鏈接:https://arxiv.org/pdf/2203.14957.pdf

在過去幾年中,基于深度學(xué)習(xí)的視頻理解在視頻分類任務(wù)上取得了巨大成功。I3D和SlowFast等網(wǎng)絡(luò)通常將短視頻片段(32幀或64幀)作為輸入,提取全局表征來預(yù)測動作類別。不過,許多實際應(yīng)用,例如手語翻譯、機器人模仿學(xué)習(xí)、動作對齊和相位分類都要求算法能夠?qū)哂袛?shù)百幀的長視頻進行建模,并提取逐幀表征,而不是全局特征。

浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

(a) 在FineGym 數(shù)據(jù)集上的細粒度幀檢索

浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

(b) 在Pouring 數(shù)據(jù)集上的相位邊界檢測

浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

(c)在PennAction 數(shù)據(jù)集上的時間視頻對齊

以前的方法嘗試通過監(jiān)督學(xué)習(xí)來學(xué)習(xí)逐幀表征,其中子動作或相位邊界被注釋。然而,在大規(guī)模數(shù)據(jù)集上手動標記每個幀和精確的動作邊界非常耗時,甚至不切實際,從而妨礙了基于全監(jiān)督學(xué)習(xí)訓(xùn)練的模型在現(xiàn)實場景中的推廣。為了減少對標記數(shù)據(jù)的依賴性,TCC、LAV和GTA等方法通過使用循環(huán)一致性損失或軟動態(tài)時間扭曲來進行弱監(jiān)督學(xué)習(xí)。所有這些方法都依賴于視頻水平的注釋,并且是用表現(xiàn)相同動作的成對視頻進行訓(xùn)練的。該前提使得在沒有可用標簽的更一般的視頻數(shù)據(jù)集中無法應(yīng)用這些方法。

本研究的目的是以自監(jiān)督方式學(xué)習(xí)長視頻中具有時空上下文信息的逐幀表征。受對比表征學(xué)習(xí)最新進展的啟發(fā),我們提出了一個新框架——對比動作表征學(xué)習(xí)(CARL)。我們假設(shè)在訓(xùn)練期間沒有可用的標簽,并且訓(xùn)練和測試集中的視頻都很長(數(shù)百幀)。此外,我們不依賴具有相同動作的成對視頻進行訓(xùn)練,從而能夠以更低的成本擴大訓(xùn)練集規(guī)模。

為數(shù)百幀的長視頻建模是一項挑戰(zhàn)。直接使用為短視頻片段分類而設(shè)計的現(xiàn)成骨架也不太現(xiàn)實,因為我們的任務(wù)是提取長視頻的逐幀表征。在本研究中,我們提出了一種簡單而高效的視頻編碼器,它由一個對每幀的空間信息進行編碼的2D網(wǎng)絡(luò)和一個對時間交互進行建模的Transformer編碼器組成。然后使用逐幀特征進行表征學(xué)習(xí)。

最近,SimCLR使用實例鑒別作為網(wǎng)絡(luò)前置任務(wù),并引入了一個名為NT-Xent的對比損失,該對比損失最大化相同數(shù)據(jù)的兩個增強視圖之間的一致性。在他們的實現(xiàn)中,除正面參照樣本外的所有實例都被判定為負樣本。與圖像數(shù)據(jù)不同的是,視頻提供了更豐富的實例(每一幀都被視為一個實例),相鄰幀具有很高的語義相似性。直接將這些幀視為負樣本可能會損害學(xué)習(xí)過程。為了避免這個問題,我們提出了一種新的序列對比損失框架(SCL),它通過最小化兩個增強視頻視圖的序列相似性與先驗高斯分布之間的KL散度來優(yōu)化嵌入空間。

綜上,本文的主要貢獻總結(jié)如下:

  • 我們提出了一個名為對比動作表征學(xué)習(xí)(CARL)的新架構(gòu),以自監(jiān)督方式學(xué)習(xí)長視頻中具有時空上下文信息的逐幀動作表征。我們的方法不依賴于任何數(shù)據(jù)注釋,也不對數(shù)據(jù)集進行假設(shè)。

  • 我們引入了一種基于Transformer的網(wǎng)絡(luò)來對長視頻進行高效編碼,和一種新的序列對比損耗(SCL)用于表征學(xué)習(xí)。同時,我們設(shè)計了一系列時空數(shù)據(jù)增強,以增加訓(xùn)練數(shù)據(jù)的多樣性。

  • 我們的框架在不同數(shù)據(jù)集的多個任務(wù)上大大優(yōu)于目前為止最先進的方法。例如,在FineGym數(shù)據(jù)集上的線性評估協(xié)議下,我們的框架實現(xiàn)了41.75%的準確率,比現(xiàn)有的最佳方法GTA高出+13.94%。在Penn Action和Kendall's Tau數(shù)據(jù)集上,我們的方法分別實現(xiàn)了91.67%和99.1%的細粒度分類,以及前五個細粒度幀檢索精度的90.58%,這些結(jié)果都優(yōu)于現(xiàn)有的最佳方法。



    2

    方法

    2.1. 概述

    圖2中我們對CARL架構(gòu)進行了概述。首先通過一系列時空數(shù)據(jù)增強為輸入視頻構(gòu)建兩個增強視圖。此步驟稱為數(shù)據(jù)預(yù)處理。然后,我們將兩個增強視圖輸入到幀級視頻編碼器(FVE)中,以提取密集表征。遵循SimCLR,F(xiàn)VE附加了一個小型投影網(wǎng)絡(luò),它是一個兩層的MLP,用于獲得潛在嵌入。由于時間上相鄰的幀高度相關(guān),我們假設(shè)兩個視圖之間的相似性分布遵循先驗高斯分布?;诖?,我們提出了一種新的序列對比損失(SCL)來優(yōu)化嵌入空間中的逐幀表征。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    圖2  架構(gòu)概述(CARL)。通過一系列時空數(shù)據(jù)增強,從訓(xùn)練視頻構(gòu)建兩個增強視圖。幀級視頻編碼器(FVE)和投影頭通過最小化兩個視圖之間的序列對比損失(SCL)進行優(yōu)化。

    2.2. 視圖構(gòu)建

    首先介紹本方法的視圖構(gòu)建步驟,如圖2中的"數(shù)據(jù)預(yù)處理"部分所示。在自監(jiān)督學(xué)習(xí)中,數(shù)據(jù)增強對于避免平凡解至關(guān)重要。以前針對圖像數(shù)據(jù)的方法只需要空間增強,與此不同,我們引入了一系列時空數(shù)據(jù)增強,以進一步增加視頻的多樣性。

    具體而言,對于一個具有S幀的訓(xùn)練視頻V,我們的目標是通過一系列時空數(shù)據(jù)增強,獨立地構(gòu)造兩個T幀的增強視頻。對于時間數(shù)據(jù)增強,我們首先對V執(zhí)行隨機時間裁剪,以生成兩個長度為[T,αT]幀的隨機裁剪片段,其中α是控制最大裁剪長度的超參數(shù)。在此過程中,我們保證兩個剪輯片段之間至少存在β%的重疊幀。然后對每個視頻序列隨機采樣T幀,獲得視頻序列V1和V2,默認設(shè)置T=240。對于小于T幀的視頻,在裁減之前會對空幀進行填充。最后,分別在V1和V2上應(yīng)用幾種時間一致的空間數(shù)據(jù)增強,包括隨機調(diào)整大小和裁剪、水平翻轉(zhuǎn)、隨機顏色失真和隨機高斯模糊。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    圖3  幀級視頻編碼器(FVE)的結(jié)構(gòu)。輸入T幀長視頻,輸出逐幀表征。ResNet-50在ImageNet上進行了預(yù)訓(xùn)練。我們凍結(jié)了ResNet-50的前四個殘差塊,只微調(diào)最后一個塊。

    2.3. 幀級視頻編碼器

    直接應(yīng)用視頻分類架構(gòu)對數(shù)百幀的長視頻序列進行建模,因其計算量巨大而無法實現(xiàn)。TCC提出了一種視頻編碼器,它將2D ResNet和3D卷積相結(jié)合,以生成逐幀特征。然而疊加太多3D卷積層會導(dǎo)致計算成本過高。這導(dǎo)致這種類型的設(shè)計可能只有有限的感受野來捕捉時間上下文。最近,Transformers在計算機視覺方面取得了巨大的進步。Transformers利用注意機制解決序列到序列任務(wù),同時輕松處理遠距離依賴關(guān)系。在本網(wǎng)絡(luò)實現(xiàn)中,我們采用了Transformer編碼器來建模時間上下文。

    圖3展示了我們的幀級視頻編碼器(FVE)。為了在表征性能和推理速度之間達到平衡,我們首先使用一個2D網(wǎng)絡(luò)(例如ResNet-50)沿時間維度提取長度為T×224×224×3的RGB視頻序列的空間特征。然后用一個轉(zhuǎn)換塊(該轉(zhuǎn)換塊由兩個具有批量歸一化ReLU的全連接層組成),將空間特征投影到大小為T×256的中間嵌入。遵循常規(guī)做法,我們在中間嵌入的頂部添加了正弦-余弦位置編碼,以編碼順序信息。接下來,將編碼后的嵌入輸入到3層Transformer編碼器中,以對時間上下文進行建模。最后,采用一個線性層來獲取最終的逐幀表征H。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    圖4  序列對比損失圖解。以V1中的一個視頻幀損失計算過程為例。我們首先計算時間戳距離的先驗高斯分布。然后計算該幀的嵌入與V2中所有視頻幀的嵌入之間的嵌入相似性分布,最后將嵌入空間中兩個分布的KL散度最小化。

    2D 的ResNet-50網(wǎng)絡(luò)在ImageNet上進行了預(yù)訓(xùn)練??紤]到計算預(yù)算有限,我們凍結(jié)了前四個殘差塊,因為它們已經(jīng)通過預(yù)訓(xùn)練學(xué)習(xí)了良好的低級視覺表征。這種簡單的設(shè)計確保本網(wǎng)絡(luò)可以在超過500幀的視頻上進行訓(xùn)練和測試。VTN采用了一種類似的基于Transformer的混合網(wǎng)絡(luò)來執(zhí)行視頻分類任務(wù)。他們使用[CLS]令牌來生成全局特征,而我們的網(wǎng)絡(luò)是通過考慮時空上下文來提取幀表征。此外,我們的網(wǎng)絡(luò)嘗試了對更長的視頻序列進行建模。

    2.4. 序列對比損失

    SimCLR通過最大化同一實例的增強視圖之間的一致性,引入了一個叫做NTXent的對比損失。

    與圖像的自監(jiān)督學(xué)習(xí)不同,視頻提供了豐富的序列信息,這是一個重要的監(jiān)督信號。對于典型的實例判別,除了正面參考樣本之外的所有實例都被判定為負樣本。然而,參考幀附近的幀高度相關(guān)。直接將這些幀視為負樣本可能會損害學(xué)習(xí)過程,因此我們應(yīng)該盡量避免這個問題。為了優(yōu)化逐幀表征,我們提出了一種新的序列對比損失(SCL),它通過最小化兩個增強視圖的嵌入相似性和先驗高斯分布之間的KL散度來實現(xiàn),如圖4所示。

    具體來說,與SimCLR類似,我們使用一個由兩層MLP組成的小型投影網(wǎng)絡(luò)g,由FVE編碼的幀表征H由該投影網(wǎng)絡(luò)投影到潛在嵌入Z。考慮到兩個視頻序列V1和V2對應(yīng)的嵌入向量Z1和Z2中每個潛在嵌入,在時間上相鄰的幀比相距更遠的幀相關(guān)性更高,我們假設(shè)每個視頻幀的潛在嵌入和另一個視頻序列的潛在向量之間的嵌入相似性遵循時間戳距離的先驗高斯分布?;谶@個假設(shè),我們使用KL散度優(yōu)化嵌入空間。具體來說,對于V1,我們首先計算 V1中每個幀的損失,然后計算V1所有幀損失的平均值即為V1的總損失,V2同理,序列對比損失為兩個視頻序列V1和V2總損失的和。值得注意的是,本方法中的損失并不依賴于V1和V2之間的幀到幀的對應(yīng)關(guān)系,這增加了時空數(shù)據(jù)增強的多樣性。



    3

    實驗結(jié)果

    我們使用三個視頻數(shù)據(jù)集,即PennAction、FineGym和Pouring來評估本方法的性能。我們在三個數(shù)據(jù)集上將本方法與迄今為止最先進的技術(shù)進行了比較。

    PennAction數(shù)據(jù)集上的結(jié)果

    如表2所示,我們報告的結(jié)果低于平均精度@K指標(Average Precision@K metric),該指標衡量細粒度幀檢索的性能。出乎意料的是,盡管我們的模型沒有經(jīng)過成對數(shù)據(jù)的訓(xùn)練,但它仍然可以從其他視頻中成功地找到具有相似語義的幀。對于所有的AP@K,我們的方法優(yōu)于以前的方法至少11%。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    表2 在PennAction數(shù)據(jù)集上的細粒度幀檢索結(jié)果。

    FineGym數(shù)據(jù)集上的結(jié)果

    表3總結(jié)了FineGym99和FineGym288上細粒度動作分類的實驗結(jié)果。結(jié)果顯示我們的方法優(yōu)于其他自監(jiān)督和弱監(jiān)督方法。我們的方法在FineGym99和FineGym288上的性能比之前最先進的方法GTA分別高出+13.94%和+11.07%。如TCC、TW和GTA等弱監(jiān)督方法假設(shè)訓(xùn)練集中的兩個視頻之間存在最佳對齊。然而,對于FineGym數(shù)據(jù)集,即使在描述同一動作的兩個視頻中,子動作的設(shè)置和順序也可能不同。因此,這些方法找到的對齊可能不正確,因而會阻礙學(xué)習(xí)。我們的方法在兩個指標上有很大的提高,從而驗證了我們框架的有效性。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    表3  以細粒度動作分類為評估指標, 在FineGym上我們的方法與最先進的方法進行比較。

    Pouring數(shù)據(jù)集上的結(jié)果

    如表4所示,我們的方法在一個相對較小的數(shù)據(jù)集Pouring上性能也是最好的。這些結(jié)果進一步證明了我們的方法具有很強的泛化能力。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    表4 在Pouring數(shù)據(jù)集上與最先進方法的比較



    4

    結(jié)論

    在本文中,我們提出了一個對比動作表征學(xué)習(xí)(CARL)的新框架,以自監(jiān)督的方式學(xué)習(xí)逐幀動作表征,尤其是長視頻。為了對數(shù)百幀的長視頻進行建模,我們引入了一個簡單而高效的網(wǎng)絡(luò),稱為幀級視頻編碼器(FVE),該網(wǎng)絡(luò)在訓(xùn)練過程中參考了時空上下文。

    此外,我們還提出了一種新的用于逐幀表征學(xué)習(xí)的序列對比損失(SCL)。SCL通過最小化兩個增強視圖的序列相似性與先驗高斯分布之間的KL散度來優(yōu)化嵌入空間。我們在各種數(shù)據(jù)集和任務(wù)上的實驗結(jié)果證明了該方法的有效性和通用性。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    雷峰網(wǎng)(公眾號:雷峰網(wǎng))

    雷峰網(wǎng)版權(quán)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

    浙大蔡登團隊:基于序列對比學(xué)習(xí)的長視頻逐幀動作表征

    分享:
    相關(guān)文章
    當月熱門文章
    最新文章
    請?zhí)顚懮暾埲速Y料
    姓名
    電話
    郵箱
    微信號
    作品鏈接
    個人簡介
    為了您的賬戶安全,請驗證郵箱
    您的郵箱還未驗證,完成可獲20積分喲!
    請驗證您的郵箱
    立即驗證
    完善賬號信息
    您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
    立即設(shè)置 以后再說