0
本文作者: AI研習社-譯站 | 2018-03-28 15:29 |
雷鋒網(wǎng)按:這里是,雷鋒字幕組編譯的Two minutes paper專欄,每周帶大家用碎片時間閱覽前沿技術(shù),了解AI領(lǐng)域的最新研究成果。
原標題 AI-Based Animoji Without The iPhone X
翻譯 | 廖穎 字幕 | 楊青 整理 | 李逸帆 凡江
本期論文:Avatar Digitization From a Single Image For Real-Time Rendering
?每周一篇2分鐘論文視頻解讀
本期的兩分鐘論文是介紹使用AI技術(shù)來實現(xiàn)iPhone X上功能——Animoji。自從iPhone X面世以來,這項功能受到很多人的喜愛。它可以輕易地模擬你的表情,用emoji里的圖案來表現(xiàn),看起來實在是妙趣橫生。這項功能是如何實現(xiàn)的呢?它使用的是點陣投影器(Dot Projector)來捕捉、理解人臉的幾何特征。
現(xiàn)在問題來了,假設(shè)我們不使用這項技術(shù),如何能達到Animoji的效果呢?AI可以幫我們做到。很簡單,你甚至不需要上傳一段視頻,僅僅一張圖片作為輸入,就可以訓練神經(jīng)網(wǎng)絡(luò)來制作實時動作的動畫圖像,聽起來很有趣吧?
在訓練過程中,可以看到,圖像包含一些基本的元素:眼睛、牙齒、舌頭、牙齦。但是這樣其實是不夠的,為了讓圖像更生動,還需要用戶的外貌和姿態(tài)。有意思的是,頭發(fā)的部分不是像之前的技術(shù)那樣,一根一根地生成,因為這樣實在是太耗時耗力了。
這一切究竟是如何實現(xiàn)的呢?首先,我們將圖片分割為面部和頭發(fā)兩個部分,然后將頭發(fā)部分放入神經(jīng)網(wǎng)絡(luò),試圖去提取一些特征,例如頭發(fā)長度、刺頭等資訊,判斷是否丸子頭、馬尾,找出發(fā)際線位置。這個神經(jīng)網(wǎng)絡(luò)非常深,大概有50層左右,訓練用的素材多達4萬張。
下一步,我們使用一種多視角的方式來展現(xiàn)完成之后的圖像,這項技術(shù)可以重新定位,也就是說,我們的姿勢可以轉(zhuǎn)換到不同的特征。這個訓練的模型受光照的影響不大,在各個光照條件下都表現(xiàn)優(yōu)異。是不是超贊?
現(xiàn)在臉部建構(gòu)技術(shù)愈來愈豐富了,看著《頭號玩家》,雖然目前展現(xiàn)的虛擬頭部還沒很精細,但離在虛擬世界生活的距離是不是愈近了呢?
論文原址 http://www.hao-li.com/publications/papers/siggraphAsia2017ADFSIFRTR.pdf
更多文章,關(guān)注雷鋒網(wǎng) 雷鋒網(wǎng)
添加雷鋒字幕組微信號(leiphonefansub)為好友
備注「我要加入」,To be an AI Volunteer !
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。