0
本文作者: camel | 2017-08-18 13:05 |
雷鋒網(wǎng)AI科技評(píng)論按:最近二次元愛(ài)好者們可能會(huì)感覺(jué)到了一陣興奮流遍全身。來(lái)自復(fù)旦大學(xué)、同濟(jì)大學(xué)、卡內(nèi)基梅隆大學(xué)和石溪大學(xué)共6位學(xué)生(其實(shí)本科都在復(fù)旦)搭建了一個(gè)利用人工智能自動(dòng)生成精美動(dòng)漫角色的網(wǎng)站MakeGirls.moe。
對(duì)于用戶(hù)來(lái)說(shuō)操作非常簡(jiǎn)單,只需要選擇自己喜愛(ài)的頭發(fā)、眼睛、微笑、張嘴等等特征,然后點(diǎn)擊“genrate”就可以通過(guò)訓(xùn)練出的AI模型來(lái)生成一個(gè)動(dòng)漫人物。該網(wǎng)站上線后數(shù)天,訪問(wèn)量便增加到10k+每小時(shí)。其repo在github trending上也一度排到第四位。該網(wǎng)站所使用的技術(shù)在其論文《Create Anime Characters with A.I. !》中進(jìn)行了詳細(xì)說(shuō)明。
其實(shí)這并不是第一個(gè)將AI應(yīng)用到動(dòng)漫當(dāng)中的模型。2015年Soumith Chintala等人開(kāi)發(fā)DCGAN后不久,就有人將DCGAN應(yīng)用到了生成動(dòng)漫角色當(dāng)中,出現(xiàn)了ChainerDCGAN、IllustrationGAN和AnimeGAN等,三者分別使用了Chainer、TensorFlow和PyTorch的框架,它們本質(zhì)上都是DCGAN,只是實(shí)現(xiàn)方式不同。但這些模型的效果并不是很好,尤其是會(huì)出現(xiàn)面部頭像模糊和扭曲的問(wèn)題。在MakeGirls.moe的模型中,作者針對(duì)這些問(wèn)題做出了兩方面的改進(jìn)。
之前幾家,他們訓(xùn)練模型所使用的數(shù)據(jù)集大多數(shù)是使用爬蟲(chóng)從網(wǎng)絡(luò)上爬下來(lái)的,這類(lèi)圖片在質(zhì)量和畫(huà)風(fēng)上參差不齊,甚至還有一些背景。訓(xùn)練數(shù)據(jù)集質(zhì)量的低下會(huì)給訓(xùn)練造成很大的影響。本文的作者則通過(guò)從日本的游戲販賣(mài)商Getchu購(gòu)買(mǎi)了高質(zhì)量的圖像,這些圖像基本出于專(zhuān)業(yè)畫(huà)師之手,同時(shí)背景統(tǒng)一。
除了高質(zhì)量的圖像外為了訓(xùn)練網(wǎng)絡(luò)模型,作者使用了一種基于CNN的圖像分析工具Illustration2Vec,對(duì)圖像中動(dòng)漫人物的屬性,如頭發(fā)顏色、眼睛顏色、發(fā)型和表情等做標(biāo)記。
此外,在訓(xùn)練的過(guò)程中他們還發(fā)現(xiàn)發(fā)布時(shí)間越晚的圖片,訓(xùn)練出的模型效果越好。這不難理解,隨著游戲角色制作和CG技術(shù)的發(fā)展,越是現(xiàn)代的圖片,細(xì)節(jié)越豐富,如陰影和頭發(fā)。所以作者舍棄了2005年之前的全部數(shù)據(jù),并過(guò)濾掉分辨率低于128*128的圖像,用剩下的31255張高質(zhì)量圖像進(jìn)行訓(xùn)練。
作者采用了今年5月份發(fā)表的DRAGAN模型(https://arxiv.org/pdf/1705.07215.pdf),這種模型所使用的計(jì)算量相對(duì)較少,收斂較快而且能夠產(chǎn)生更穩(wěn)定的結(jié)果。而在優(yōu)化生成器的過(guò)程中,受ACGAN的啟發(fā),不僅向生成器提供了標(biāo)簽數(shù)據(jù),連“噪聲”數(shù)據(jù)也一并提供,之后再為判別器增加多標(biāo)簽分類(lèi)功能。
下面展示一下效果——
雖然訓(xùn)練出的模型大多數(shù)時(shí)候都比較好,但該模型仍然存在一些缺點(diǎn)。問(wèn)題仍出在數(shù)據(jù)集中,由于訓(xùn)練數(shù)據(jù)中各個(gè)屬性(發(fā)色、發(fā)型、眼鏡、帽子等)的數(shù)量分布不均勻,某些屬性的生成并不理想(例如眼鏡和帽子常常不能生成) ,如果將某些罕見(jiàn)的屬性組合,生成的圖片甚至?xí)罎ⅲɡ缑弊?眼鏡)。也許當(dāng)增加數(shù)據(jù)集的數(shù)量,訓(xùn)練出的模型生成圖片質(zhì)量可以進(jìn)一步提高。雷鋒網(wǎng)認(rèn)為,按照此趨勢(shì)AI或許在不久將替代掉插畫(huà)師的一部分工作。
訪問(wèn)網(wǎng)站:MakeGirls.moe(已有訓(xùn)練好的模型,打開(kāi)就可以嘗試生成)
據(jù)雷鋒網(wǎng)了解,由于突然之間巨大的訪問(wèn)量,網(wǎng)站目前托管在Preferred Networks所提供的AWS上。AWS嘛,你懂的,國(guó)內(nèi)基本就是不能訪問(wèn)的……隨后作者可能會(huì)做出一定調(diào)整。
查看論文:https://makegirlsmoe.github.io/assets/pdf/technical_report.pdf
Github:make.girls.moe(目前只有網(wǎng)站的js源碼,看介紹訓(xùn)練模型的代碼會(huì)在近期放出)
本文參考了:AI可能真的要代替插畫(huà)師了……
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。