0
萬圣節(jié)要來了!
兩千多年前,凱爾特人相信,嚴(yán)寒的第一天,故人的亡魂會(huì)回到故居地在活人身上找尋圣靈,借此再生,這是人死后獲得重生的唯一希望。
而活人則懼怕死人的靈魂來奪生,于是在10月31日這一天人們熄調(diào)火爐,把自己打扮成「妖魔鬼怪」把魂靈嚇走。
后來,歐洲基督教會(huì)便把11月1日定為“萬圣節(jié)”,并一直延續(xù)到了今天。
不過,如今萬圣節(jié)已經(jīng)變成了人們娛樂、惡搞的節(jié)日,人們尤其熱衷于制造詭異的面部妝效捉摸朋友。
但通常一個(gè)令人驚恐的“喪尸妝”要花費(fèi)十幾個(gè)小時(shí),多少有些讓人頭疼。
那么,有什么方法可以一鍵生成驚悚的喪尸妝呢?
現(xiàn)在距離萬圣節(jié)還有3天,但小編已經(jīng)在國外社交網(wǎng)絡(luò)上發(fā)現(xiàn)一大波喪尸照,我們來一起感受下~
美國女演員碧昂絲·諾利斯
美國演員、歌手威爾 · 斯密斯
emmm,妝效過于專業(yè)了。
難道新一季《行尸走肉》又要開播了?還換了演員?
還有兩位總統(tǒng)候選人約瑟夫·拜登和唐納德·特朗普,恐怖又覺得有點(diǎn)搞笑......
看到這里,有朋友可能會(huì)想到這些圖片應(yīng)該是來自網(wǎng)友們的惡搞。
是的,這些真·喪尸全部出自一款『喪尸生成器』,只需輸入一張照片就可以立刻生成一張喪尸照,而且妝效感人......
不知道大家還記不記得,之前小編曾報(bào)道過一款換臉網(wǎng)站Toonify,這個(gè)網(wǎng)站可以把人臉切換成動(dòng)漫臉,效果非常逼真,上線當(dāng)天訪問量就超過了25萬。它效果是這樣的:
體驗(yàn)地址:https://toonify.justinpinkney.com/
大眼萌臉,妥妥地定制化漫畫臉,正是這款變臉網(wǎng)站,激發(fā)了Josh Brown Kramer的靈感。
既然一張照片可以秒變迪士尼公主,是不是也可以讓它秒變喪尸呢?
因此,這位程序員小哥借鑒了Toonify的核心技術(shù),開發(fā)了這款『喪尸生成器』,而且為了方便大家使用,也做成了網(wǎng)站形式,可免費(fèi)使用。
聽到這里是不是迫不及待想要體驗(yàn)一下了?
該網(wǎng)站名為Make Me A Zombie。操作簡單,出圖很快。
https://makemeazombie.com/
只需要點(diǎn)擊鏈接,選擇Browse輸入一張人臉圖片,點(diǎn)擊藍(lán)色圖標(biāo)即可。
小編沒忍住用愛豆們的照片先體驗(yàn)了一番,結(jié)果.....
不得不說,王一博喪尸臉也是帥的[傲嬌]
欣欣子.....emmm還是在承受范圍內(nèi)的。
不過,馬爸爸這張[大笑],感覺特效化妝師都畫不出這樣的妝效。
言歸正傳,經(jīng)過幾張圖片測試,小編也發(fā)現(xiàn)兩個(gè)問題。一是生成器只針對面部進(jìn)行識別和處理,如果輸入全身圖,系統(tǒng)會(huì)自動(dòng)刪除多余的部分,只生成一個(gè)人臉照。
二是輸入人臉照的生成效果比全身照更好,而且圖片越清晰效果也就越好。
有了這個(gè)“喪尸生成器”,萬圣節(jié)不愁惡搞別人的“鬼照”了[奸笑]
Kramer介紹稱,該模型的開發(fā)與 Toonify 并無關(guān)聯(lián),但使用的是相同的技術(shù)棧,即StyleGAN2.
StyleGAN是當(dāng)前最先進(jìn)的高分辨率圖像合成方法,由英偉達(dá)在2018年首次推出。該方法可生成逼真的人臉圖像,其在FFHQ(Flicker-Faces-HQ)數(shù)據(jù)集上的表現(xiàn),遠(yuǎn)超DCGAN和ConditionalGAN。
但StyleGAN也存在明顯的缺陷,即易出現(xiàn)斑點(diǎn)似的偽影(Artifacts)。
去年12月,英偉達(dá)在StyleGAN原有架構(gòu)基礎(chǔ)上進(jìn)行了改進(jìn),并于CVPR 2020大會(huì)上推出升級版StyleGAN2。
除了消除偽影外,StyleGAN2的一項(xiàng)重大更新是風(fēng)格遷移(Style Transfer)技術(shù)。
該研究團(tuán)隊(duì)在論文《分析和改善StyleGAN的圖像質(zhì)量》中指出,“總體而言,我們改進(jìn)的模型在現(xiàn)有的分布質(zhì)量指標(biāo)和感知的圖像質(zhì)量方面都重新定義了無條件圖像建模的最新技術(shù)?!?
簡單來說,該模型可以使用遷移學(xué)習(xí)技術(shù)生成各種風(fēng)格的肖像,突破了圖像合成的風(fēng)格限制。我們現(xiàn)在通常看到的人臉動(dòng)漫化,或者動(dòng)漫臉真人化本質(zhì)都是利用的這張技術(shù)。
例如:這是利用StyleGAN2在五種動(dòng)漫和動(dòng)物角色之間的無縫切換。
Kramer利用這項(xiàng)技術(shù)創(chuàng)建了一個(gè)混合型 StyleGAN2 模型。其中,該模型前層為人類圖像生成器,后層為喪尸生成器。在數(shù)據(jù)集方面,人類圖像生成器采用的是高質(zhì)量的人臉數(shù)據(jù)集FFHQ,它包含70,000張PNG圖像,分辨率達(dá)1024x1024;僵尸生成器的訓(xùn)練數(shù)據(jù)是一組包含300張萬圣節(jié)僵尸裝扮的人的圖像,主要來自Pinterest和Google,并對其進(jìn)行了手動(dòng)檢測刪除了非僵尸圖像。
最后,在借鑒《StyleGAN2 Distillation for Feed-forward Image Manipulation》論文后,Kramer轉(zhuǎn)存了50000 個(gè)圖像對(分別來自人類生成器和喪尸生成器),并使用 Pix2PixHD 學(xué)習(xí)圖像對之間的映射。
此外,Kramer也強(qiáng)調(diào)其與Toonify有兩點(diǎn)明顯的不同:
我通過“crappify”的方法來調(diào)整圖像大小,并壓縮偽影。
我們采用的混合模型不同。我的模型更強(qiáng)調(diào)原始圖像的形狀和方向,以及僵尸圖像的紋理和卡通化,而Toonify并不是。
值得注意的是,關(guān)于僵尸生成器,Kramer從去年開始就有做過嘗試。當(dāng)時(shí)利用的是CycleGAN模型,但采用的數(shù)據(jù)集是一樣的。起初,Kramer想研發(fā)一半是人像一半是僵尸的生成器。他將數(shù)百個(gè)示例分為兩類,分別學(xué)習(xí)帶有SVM的超平面,以確定潛在空間中的“僵尸”方向。接著再根據(jù)輸入的人臉生成特定的“僵尸”,并以此作為 Pix2Pix 數(shù)據(jù)的基礎(chǔ)。
但這一過程遇到了兩個(gè)問題:一是雖然在生成的人類身上效果很好,但在真實(shí)圖像上只能產(chǎn)生中等水平的結(jié)果;二是僵尸和種族之間性質(zhì)不同,我不想創(chuàng)造一個(gè)改變種族生成器。
不過,相比之下,基于StyleGAN2架構(gòu)的模型也有明顯的優(yōu)勢。比如該模型能夠在2080Ti顯卡上訓(xùn)練1024 x 1024大小的模型,效率高,而且經(jīng)過預(yù)訓(xùn)練后的輸出效果也比較好,在這兩點(diǎn)上CycleGAN2和Pix2PixHD相對差之。
引用鏈接:
https://github.com/fastai/course-v3/blob/master/nbs/dl1/crappify.py
雷鋒網(wǎng)雷鋒網(wǎng)雷鋒網(wǎng)
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。