丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號(hào)安全和更好的產(chǎn)品體驗(yàn),強(qiáng)烈建議使用更快更安全的瀏覽器
此為臨時(shí)鏈接,僅用于文章預(yù)覽,將在時(shí)失效
人工智能學(xué)術(shù) 正文
發(fā)私信給我在思考中
發(fā)送

0

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

本文作者: 我在思考中 2021-08-11 10:08
導(dǎo)語:AI 科技評(píng)論今天介紹的論文,作者使用重建出的三維人臉動(dòng)態(tài)信息來指導(dǎo)人臉視頻的生成,旨在生成逼真的和身份不變的面部視頻。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

AI 科技評(píng)論報(bào)道

編輯 | 陳大鑫

從單一的人臉圖像生成其對(duì)應(yīng)的視頻是一個(gè)有趣的問題,研究者們通常利用人臉圖像的稀疏特征點(diǎn)(landmarks)結(jié)合生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks, GANs)來進(jìn)行人臉視頻的生成。然而,由稀疏人臉特征點(diǎn)生成的人臉圖像通常會(huì)遭受質(zhì)量損失、圖像失真、身份改變,以及表情不匹配等問題。

AI 科技評(píng)論今天介紹一篇能很好解決上述問題的論文,在本文中,作者使用重建出的三維人臉動(dòng)態(tài)信息來指導(dǎo)人臉視頻的生成,旨在生成逼真的和身份不變的面部視頻。三維人臉動(dòng)態(tài)可以更好的表示人臉的面部表情和動(dòng)作,可以作為有力的先驗(yàn)知識(shí)指導(dǎo)高度逼真的人臉視頻生成。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

原文標(biāo)題:Image-to-Video Generation via 3D Facial Dynamics

論文地址:https://ieeexplore.ieee.org/abstract/document/9439899

在文中,作者精心設(shè)計(jì)了一套三維動(dòng)態(tài)預(yù)測(cè)和人臉視頻生成模型(FaceAnime),來預(yù)測(cè)單張人臉圖像的 3D 動(dòng)態(tài)序列,然后通過稀疏紋理映射算法進(jìn)一步渲染3D動(dòng)態(tài)序列的皮膚細(xì)節(jié)。

最后,利用條件生成對(duì)抗網(wǎng)絡(luò)引導(dǎo)人臉視頻的生成。實(shí)驗(yàn)結(jié)果顯示,F(xiàn)aceAnime能從單張靜止的人臉圖像生成高保真度、身份不變性的人臉視頻,較其它方法效果更好。


1

背景及簡(jiǎn)介

當(dāng)前的人臉視頻生成方法普遍采用人臉的稀疏特征點(diǎn)(landmarks)來引導(dǎo)圖片或視頻的生成,然而作者認(rèn)為使用稀疏的二維特征點(diǎn)引導(dǎo)人臉圖像/視頻生成的主要缺點(diǎn)有:

1、稀疏人臉特征點(diǎn)不能很好地表示人臉圖像的幾何形狀,容易導(dǎo)致人臉整體形狀和面部結(jié)構(gòu)細(xì)節(jié)的缺失,進(jìn)而導(dǎo)致合成圖像的失真和質(zhì)量損失;

2、稀疏的二維特征點(diǎn)不攜帶源人臉圖像的任何內(nèi)容信息,這可能會(huì)導(dǎo)致生成的圖像過擬合于只包含訓(xùn)練集的人臉圖像中;

3、在視頻生成過程中應(yīng)保留人臉身份信息,但稀疏的2D特征點(diǎn)沒有身份信息,容易導(dǎo)致合成結(jié)果的身份變化。

文章的主要貢獻(xiàn)如下:

  • 不同于廣泛使用2D稀疏人臉landmarks進(jìn)行圖像/視頻的引導(dǎo)生成,文章主要探索包含人臉豐富信息的3D動(dòng)態(tài)信息的人臉視頻生成任務(wù);
  • 設(shè)計(jì)了一個(gè)三維動(dòng)態(tài)預(yù)測(cè)網(wǎng)絡(luò)(3D Dynamic Prediction,3DDP)來預(yù)測(cè)時(shí)空連續(xù)的3D動(dòng)態(tài)序列;
  • 提出了一個(gè)稀疏紋理映射算法來渲染預(yù)測(cè)的3D動(dòng)態(tài)序列,并將其作為先驗(yàn)信息引導(dǎo)人臉圖像/視頻的生成;
  • 文章使用隨機(jī)和可控的兩種方式進(jìn)行視頻的生成任務(wù),驗(yàn)證提出方法的有效性。

2

方法描述

本文提出的 FaceAnime 包含一個(gè) 3D 動(dòng)態(tài)預(yù)測(cè)網(wǎng)絡(luò)(3D Dynamic Prediction, 3DDP)和一個(gè)先驗(yàn)引導(dǎo)的人臉生成網(wǎng)絡(luò)(Prior-Guided Face Generation, PGFG)。

首先,本文方法基于三維形變模型(3D Morphable Models, 3DMM)對(duì)單張人臉圖像進(jìn)行三維重建, 3DDP網(wǎng)絡(luò)隨后預(yù)測(cè)該圖像未來的3D動(dòng)態(tài)序列,之后將動(dòng)態(tài)序列進(jìn)行稀疏紋理映射渲染,最后使用PGFG網(wǎng)絡(luò)完成相應(yīng)的人臉生成。

模型的整體網(wǎng)絡(luò)架構(gòu)和操作流程如下圖1所示:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

圖1. FaceAnime的整體框架圖,包括3DDP網(wǎng)絡(luò)(左)和PGFG網(wǎng)絡(luò)(右)

(1)3D人臉重建和稀疏紋理映射

3D形變模型(3D Morphable Model, 3DMM)用來從2D人臉圖像中預(yù)測(cè)相應(yīng)的3D人臉。其中,描述3D人臉的頂點(diǎn)(vertex)可由一系列2D人臉中的正交基線性加權(quán)得出:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

其中,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是平均臉,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是形狀主成分基,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是相應(yīng)的形狀系數(shù),人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是表情主成分基,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是對(duì)應(yīng)的表情系數(shù)。反過來,3D人臉頂點(diǎn)也可以通過變換映射到一個(gè)2維圖像平面上,對(duì)應(yīng)的公式可以表達(dá)為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

其中,V表示3D頂點(diǎn)在2維平面上的映射坐標(biāo),人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是固定的正交映射矩陣,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法是對(duì)應(yīng)的旋轉(zhuǎn)矩陣,而t為偏移向量。通過最小化映射landmarks和檢測(cè)的landmarks之間的人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法距離,最終可以求得 3DMM 中的系數(shù)。

如圖2所示,給定一張?jiān)慈四槇D像(Source Face),其3D形狀可以通過改變重建的 3DMM 系數(shù)來進(jìn)行任意的修改, 則目標(biāo)人臉的稀疏紋理可以由修改后的3DMM 系數(shù)獲得。在人臉重定向任務(wù)中,修改的 3DMM 系數(shù)可由參考人臉視頻幀得到,而在人臉預(yù)測(cè)任務(wù)中,則由 LSTM 模塊預(yù)測(cè)得到。為了防止在紋理映射中,密集的紋理先驗(yàn)信息太強(qiáng)而導(dǎo)致目標(biāo)動(dòng)作中出現(xiàn)不符合期望的結(jié)果,因此在紋理映射過程中本文采用間隔采樣即稀疏紋理映射,以適應(yīng)不同的人臉運(yùn)動(dòng)變化。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

圖2. 給定不同的3DMM系數(shù)所得到的不同三維人臉重建和稀疏映射的結(jié)果

不同于以往只針對(duì)某一種任務(wù)的視頻生成,在本文中作者提出了三個(gè)不同的生成任務(wù),即人臉視頻重定向(Face video retargeting),視頻預(yù)測(cè)(Video prediction)以及目標(biāo)驅(qū)動(dòng)的視頻預(yù)測(cè)(Target-driven video prediction)。對(duì)于retargeting任務(wù),作者使用參考視頻來提供序列的變化信息,而不使用3DDP來預(yù)測(cè)。

視頻預(yù)測(cè):給定一個(gè)觀測(cè)到的動(dòng)態(tài)序列(3DMM coefficients),LSTM對(duì)其進(jìn)行編碼:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法


人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

為了預(yù)測(cè)出一個(gè)合理的動(dòng)作,LSTM不得不首先學(xué)習(xí)大量的動(dòng)作輸入以識(shí)別在姿態(tài)序列中運(yùn)動(dòng)的種類以及隨時(shí)間的變化。在訓(xùn)練過程中,未來動(dòng)態(tài)序列可以由下式生成:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

其中人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法表示預(yù)測(cè)得到的3DMM系數(shù),其表示在時(shí)刻t的3D dynamic。基于以上公式,模型可以從一個(gè)初始的dynamic學(xué)到一個(gè)合理的未來序列。

目標(biāo)驅(qū)動(dòng)的視頻預(yù)測(cè): 對(duì)于LSTM來講,要實(shí)現(xiàn)目標(biāo)引導(dǎo)的運(yùn)動(dòng)生成,模型需要兩個(gè)輸入,即source dynamic和target dynamic。不同于視頻預(yù)測(cè),作者使用了一個(gè)計(jì)時(shí)器來對(duì)target dynamic進(jìn)行重新賦權(quán)。整體的LSTM預(yù)測(cè)可以用公式表示為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

這里人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法表示target dynamic,T為預(yù)測(cè)長(zhǎng)度,即? = 0表示序列開始時(shí)間,? = ?為序列結(jié)束。

損失函數(shù): 給一個(gè)source人臉圖像, 作者使用2DAL模型回歸出相應(yīng)的3DMM系數(shù),用來表示初始的3D dynamic 。之后模型通過觀測(cè)來生成一個(gè)系數(shù)序列。在訓(xùn)練過程中,作者使用3DMM coefficient loss和3D vertex loss兩個(gè)損失函數(shù)進(jìn)行監(jiān)督學(xué)習(xí)。3DMM coefficient loss定義為預(yù)測(cè)3DMM 系數(shù)和ground truth 3DMM系數(shù)之間的歐式距離:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

而3D vertex loss定義為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

其中人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法分別為預(yù)測(cè)得到的系數(shù)和標(biāo)準(zhǔn)系數(shù)對(duì)應(yīng)的人臉三維頂點(diǎn)信息。則整體的損失函數(shù)可以表述為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

先驗(yàn)引導(dǎo)的人臉生成: 基于提出的稀疏紋理映射,source人臉圖像被用于渲染預(yù)測(cè)的3D dynamics。在這里,稀疏紋理作為引導(dǎo)人臉生成的先驗(yàn)信息。文中提到的網(wǎng)絡(luò)PGFG (Prior-Guided Face Generation Network)主要由條件GAN網(wǎng)絡(luò)來組成,其結(jié)構(gòu)如圖1(右)所示。

PGFG 網(wǎng)絡(luò)的結(jié)構(gòu):PGFG生成器G有三個(gè)輸入,分別是source人臉人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法對(duì)應(yīng)的紋理先驗(yàn)人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法和目標(biāo)的紋理先驗(yàn)人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法。在這里,作者并沒有直接使用目標(biāo)的紋理先驗(yàn)作為先驗(yàn)引導(dǎo),而是使用了先驗(yàn)殘差來引導(dǎo)人臉生成,在特征空間可以獲得運(yùn)動(dòng)殘差: 人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法。由此可得最終人臉為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

為了進(jìn)一步利用不同空間位置的特征信息,編碼器和解碼器均由Dense blocks組成。判別器有兩個(gè)輸入,即目標(biāo)人臉圖像的紋理先驗(yàn)分別和生成人臉、目標(biāo)人臉結(jié)合的輸入人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法,人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法。

損失函數(shù):網(wǎng)絡(luò)PGFG由三個(gè)損失函數(shù)進(jìn)行監(jiān)督,分別為圖像像素間的損失人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法,對(duì)抗損失人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法和身份信息損失人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法


人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

需要注意的是,在身份信息損失中,R為預(yù)訓(xùn)練的人臉識(shí)別模型。

網(wǎng)絡(luò)整體的損失函數(shù)為:

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法


3

實(shí)驗(yàn)結(jié)果

作者分別對(duì)人臉視頻重定向、視頻預(yù)測(cè)以及目標(biāo)驅(qū)動(dòng)的視頻預(yù)測(cè)三個(gè)任務(wù)做了相應(yīng)的大量實(shí)驗(yàn)。

人臉視頻重定向:在這個(gè)任務(wù)中,作者分別對(duì)人臉表情的重定向以及頭部講話重定向兩個(gè)子任務(wù)進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)表明,所提出的 FaceAnime 模型可以很好的將 source 人臉圖像中的表情和動(dòng)作重定向到目標(biāo)圖像上,生成相對(duì)應(yīng)的姿態(tài)和講話表情,實(shí)驗(yàn)結(jié)果如圖 3 所示。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

圖3. FaceAnime的人臉表情重定向(a)和頭部講話重定向(b)實(shí)驗(yàn)結(jié)果

人臉視頻預(yù)測(cè):這個(gè)任務(wù)中包含視頻預(yù)測(cè)以及目標(biāo)驅(qū)動(dòng)的視頻預(yù)測(cè)兩個(gè)子任務(wù)。對(duì)每一個(gè)預(yù)測(cè)任務(wù),實(shí)驗(yàn)過程中作者隨機(jī)選取一張從人臉圖像測(cè)試集 IJB-C 中抽取的單張人臉圖像。對(duì)于視頻測(cè)試,作者首先使用 3DDP 網(wǎng)絡(luò)從source 人臉中預(yù)測(cè)一個(gè)運(yùn)動(dòng)序列,然后用該序列引導(dǎo)人臉視頻的生成。而對(duì)于目標(biāo)引導(dǎo)的人臉預(yù)測(cè)任務(wù),則需要兩個(gè)輸入圖像。一個(gè)是 source 人臉,另一個(gè)為 target 人臉。3DDP 網(wǎng)絡(luò)用于預(yù)測(cè)從 source 人臉到 target 人臉之間平滑的運(yùn)動(dòng)變化,從而引導(dǎo)人臉視頻的生成。圖4和圖5分別展示了視頻生成和目標(biāo)驅(qū)動(dòng)視頻生成兩個(gè)子任務(wù)的生成結(jié)果。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法圖4. FaceAnime的視頻生成結(jié)果

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法圖5. FaceAnime的目標(biāo)驅(qū)動(dòng)視頻生成的結(jié)果

為了展示所提出方法的先進(jìn)性,作者還同其他類似任務(wù)的算法進(jìn)行了效果對(duì)比,部分結(jié)果顯示如圖 6 所示。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法圖6. FaceAnime和其它方法的對(duì)比結(jié)果

通過比較,F(xiàn)aceAnime 不僅可以生成高質(zhì)量且真實(shí)的人臉視頻序列,同時(shí)生成的視頻圖像可以精確地還原參考視頻中人臉表情和姿態(tài)變化,還能較好地保持人臉的身份信息。

大量實(shí)驗(yàn)表明,作者提出的方法可以將參考視頻的姿態(tài)和表情變化重定位到source人臉上,并且對(duì)于一個(gè)隨機(jī)的人臉圖像,其可以生成合理的未來視頻序列。對(duì)比其他最先進(jìn)的人臉生成方法,所提出的方法在生成高質(zhì)量和身份信息保持的人臉方面具有更好的效果。


4

作者介紹

涂曉光,中國(guó)民用航空飛行學(xué)院講師,從事人工智能、深度學(xué)習(xí)、計(jì)算機(jī)視覺等領(lǐng)域的研究工作。2013-2020年在電子科技大學(xué)攻讀碩士和博士學(xué)位,2018年作為國(guó)家公派聯(lián)合培養(yǎng)博士生前往新加坡國(guó)立大學(xué)學(xué)習(xí)交流一年半, 師從亞太地區(qū)杰出青年科學(xué)家馮佳時(shí)教授, 并于2019年至2020年相繼在PENSEES新加坡研究院和字節(jié)跳動(dòng)人工智能實(shí)驗(yàn)室擔(dān)任算法實(shí)習(xí)研究員。目前,以第一作者在IEEE-TCSVT, IEEE-TMM, ACM-TIST等世界權(quán)威期刊上發(fā)表論文11篇, Google scholar引用200多次,第一作者發(fā)表SCI期刊總影響因子超過30,曾擔(dān)任模式識(shí)別領(lǐng)域頂級(jí)期刊“Pattern Recognition”特邀審稿人。2020年12月份博士畢業(yè),2021年3月以高層次人才引進(jìn)身份入職中國(guó)民用航空飛行學(xué)院。

趙健,2012年獲得北京航空航天大學(xué)學(xué)士學(xué)位,2014年獲得國(guó)防科技大學(xué)碩士學(xué)位,博士就讀于新加坡國(guó)立大學(xué)電子與計(jì)算機(jī)工程系,師從馮佳時(shí)教授和新加坡工程院院士、ACM/IEEE/IAPR Fellow顏水成教授,2019年獲得博士學(xué)位,現(xiàn)為軍事科學(xué)院助理研究員,入選中國(guó)科協(xié)2020-2022年度青年人才托舉工程、北京市科協(xié)2021-2023年度青年人才托舉工程,擔(dān)任視覺與學(xué)習(xí)青年學(xué)者研討會(huì)VALSE資深領(lǐng)域主席、中國(guó)圖象圖形學(xué)學(xué)會(huì)視覺大數(shù)據(jù)專業(yè)委員會(huì)CSIG-BVD委員、北京圖象圖形學(xué)學(xué)會(huì)BSIG第七屆理事會(huì)理事。主要研究領(lǐng)域?yàn)槿斯ぶ悄?、深度學(xué)習(xí)、模式識(shí)別、計(jì)算機(jī)視覺與多媒體分析。目前,共主持/參與科技委項(xiàng)目3項(xiàng)(序1/3/5),主持國(guó)家自然科學(xué)基金青年科學(xué)基金項(xiàng)目1項(xiàng),參與軍科院長(zhǎng)基金項(xiàng)目1項(xiàng)(序3)。近5年已受理國(guó)家專利6項(xiàng)(序1),發(fā)表高水平學(xué)術(shù)論文40余篇,單篇影響因子最高16.389,其中,以第一作者發(fā)表CCF A類論文11篇(含2篇T-PAMI、2篇IJCV)。曾作為第一作者獲得2021 USERN (Universal Scientific Education and Research Network) Prize提名,新加坡模式識(shí)別與機(jī)器智能協(xié)會(huì)PREMIA 2019 Lee Hwee Kuan獎(jiǎng)(金獎(jiǎng)),CCF A類會(huì)議、國(guó)際多媒體領(lǐng)域頂級(jí)會(huì)議ACM MM 2018最佳學(xué)生論文獎(jiǎng),CCF A類國(guó)際會(huì)議ICCV 2017 MS-Celeb-1M人臉識(shí)別競(jìng)賽Hard Set/Random Set/Low-Shot Learning全部任務(wù)全球冠軍,CCF A類國(guó)際會(huì)議CVPR 2017 L.I.P競(jìng)賽人物解析與人物姿態(tài)估計(jì)全部任務(wù)全球亞軍,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院NIST 2017 IJB-A無約束人臉識(shí)別競(jìng)賽人臉驗(yàn)證與人臉鑒別全部任務(wù)全球冠軍。擔(dān)任國(guó)家自然科學(xué)基金委評(píng)議專家,擔(dān)任T-PAMI、IJCV、NeurIPS(NeurIPS 2018前30%最佳審稿人)、CVPR等本領(lǐng)域主流國(guó)際期刊/會(huì)議的受邀審稿人。 

馮佳時(shí),現(xiàn)任新加坡國(guó)立大學(xué)電子與計(jì)算機(jī)工程系助理教授,機(jī)器學(xué)習(xí)與視覺實(shí)驗(yàn)室負(fù)責(zé)人。

中國(guó)科學(xué)技術(shù)大學(xué)自動(dòng)化系學(xué)士,新加坡國(guó)立大學(xué)電子與計(jì)算機(jī)工程系博士。2014-2015年在加州大學(xué)伯克利分校人工智能實(shí)驗(yàn)室從事博士后研究。現(xiàn)研究方向?yàn)閳D像識(shí)別、深度學(xué)習(xí)及面向大數(shù)據(jù)的魯棒機(jī)器學(xué)習(xí)。馮佳時(shí)博士曾獲ICCV’2015 TASK-CV最佳論文獎(jiǎng),2012年ACM多媒體會(huì)議最佳技術(shù)演示獎(jiǎng)。擔(dān)任ICMR 2017技術(shù)委員會(huì)主席,JMLR, IEEE TPAMI, TIP, TMM, TCSVT, TNNLS及 CVPR, ICCV, ECCV, ICML, NIPS, AAAI, IJCAI等期刊、會(huì)議審稿人。

贈(zèng)書福利 

AI科技評(píng)論本次聯(lián)合【圖靈教育】為大家?guī)?strong>10本《算法(第四版)》正版新書。

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

AI科技評(píng)論將一共選出 10名讀者,每人送出《算法(第四版)》一本。

在2021年8月8日二條文章贈(zèng)書 | 看不懂《算法導(dǎo)論》?先讀完豆瓣評(píng)分 9.4 的算法入門巨著》留言區(qū)留言,歡迎大家暢所欲言,談一談你對(duì)本書的看法和期待。在綜合留言質(zhì)量(留言是敷衍還是走心)和留言點(diǎn)贊最高(注:點(diǎn)贊最高的前10不意味著一定會(huì)中獎(jiǎng))的讀者中選出10位讀者獲得贈(zèng)書。獲得贈(zèng)書的讀者請(qǐng)聯(lián)系 AI 科技評(píng)論客服(aitechreview)。

  • 留言內(nèi)容會(huì)有篩選,例如“選我上去”、“這書寫的很棒(僅僅幾個(gè)字)”等內(nèi)容將不會(huì)被篩選,亦不會(huì)中獎(jiǎng)。

  • 留言送書活動(dòng)時(shí)間為2021年8月8日 - 2021年8月12日(23:00),活動(dòng)推送時(shí)間內(nèi)僅允許贈(zèng)書福利中獎(jiǎng)一次。

雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)


雷峰網(wǎng)特約稿件,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知

人臉表情和姿態(tài)變化萬般絲滑——基于3D人臉動(dòng)態(tài)的圖像-視頻生成方法

分享:
相關(guān)文章

運(yùn)營(yíng)

當(dāng)月熱門文章
最新文章
請(qǐng)?zhí)顚懮暾?qǐng)人資料
姓名
電話
郵箱
微信號(hào)
作品鏈接
個(gè)人簡(jiǎn)介
為了您的賬戶安全,請(qǐng)驗(yàn)證郵箱
您的郵箱還未驗(yàn)證,完成可獲20積分喲!
請(qǐng)驗(yàn)證您的郵箱
立即驗(yàn)證
完善賬號(hào)信息
您的賬號(hào)已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說