丁香五月天婷婷久久婷婷色综合91|国产传媒自偷自拍|久久影院亚洲精品|国产欧美VA天堂国产美女自慰视屏|免费黄色av网站|婷婷丁香五月激情四射|日韩AV一区二区中文字幕在线观看|亚洲欧美日本性爱|日日噜噜噜夜夜噜噜噜|中文Av日韩一区二区

您正在使用IE低版瀏覽器,為了您的雷峰網(wǎng)賬號安全和更好的產(chǎn)品體驗,強烈建議使用更快更安全的瀏覽器
此為臨時鏈接,僅用于文章預(yù)覽,將在時失效
人工智能學術(shù) 正文
發(fā)私信給蔣寶尚
發(fā)送

0

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

本文作者: 蔣寶尚 2020-02-13 18:44
導語:老片不死!

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

最近,國外一個YouTuber發(fā)布了通過神經(jīng)網(wǎng)絡(luò)增強的1895年拍攝的紀錄片《火車進站》,整部電影只有45秒長度,由路易·盧米埃和奧古斯特·盧米埃拍攝于法國一沿海城市。

這部電影采用35mm格式膠片制作,由于當時的放映機由手搖進行驅(qū)動,其原始幀率大概在16幀到24幀之間。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

由于當時的膠片技術(shù)尚未成熟,我們可以看到畫面景物都是比較模糊的,火車在駛來的同時還帶有明顯的拖影。但經(jīng)過了神經(jīng)網(wǎng)絡(luò)的畫面分辨率增強和插幀之后,這部老電影獲得了4K ~ 60fps的畫質(zhì)。

如果不是電影黑白的畫面和膠片電影獨有的畫面抖動,畫面流暢度和清晰度幾乎可以與現(xiàn)在的智能手機相媲美。這部影片的修復工作是由一位名叫 Denis Shiryaev的男子完成的,其所使用的是Topaz實驗室的Gigapixel AI以及DAIN image 圖像編輯應(yīng)用程序。在修復過程中,他不僅將鏡頭提高到4K,還將幀率提高到每秒60幀。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

Gigapixel AI官網(wǎng)截圖

《火車進站》這部短片原始原片質(zhì)量非常模糊,分辨率非常低。Shiryaev使用Gigapixel AI渲染后,自己為這部電影加上聲音后,觀影體驗竟然完全符合現(xiàn)在的標準。

根據(jù)官網(wǎng)介紹,Gigapixel AI軟件內(nèi)嵌專有的插值算法,在分析圖像的同時能夠識別圖像的細節(jié)和結(jié)構(gòu),即使將圖像放大 600%,它也可以使圖像更清晰。值得一提的是,電影中的圖像有的是通過GAN生成的。

另一方面, DAIN (Depth-Aware Video Frame Interpolation)可對電影中的幀進行預(yù)測,并將其插入現(xiàn)有視頻之中。換句話說, DAIN分析并映射視頻剪輯,然后在現(xiàn)有圖像之間插入生成的填充圖像。為了在這段1896年的視頻中達到與4K同樣的效果,Shiryaev為電影填充了足夠多圖像,從而將“圖片放映”提高到了每秒60幀。

因此,DAIN每秒會自動生成36個圖像然后添加到電影中。除此之外,基于同樣的AI技術(shù),神經(jīng)網(wǎng)絡(luò)可以將一堆彩色照片轉(zhuǎn)換為黑白,然后再訓練它重建彩色原稿,這樣就可以把黑白電影,轉(zhuǎn)換成彩色。如下視頻展示的那樣。

DAIN基于深度學習的視頻插幀技術(shù)


將百年老片修成4K大片,深度學習技術(shù)出了不少力,更為具體的是視頻插幀技術(shù)在深度學習里的體現(xiàn)。當然,深度感知視頻幀內(nèi)插(Depth-Aware Video Frame Interpolation)也不是最近才出現(xiàn)的技術(shù)。早在2019年,此項技術(shù)的相關(guān)論文就被收錄到CVPR 2019,相關(guān)算法也已經(jīng)開源在了Github上。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

論文下載地址:https://arxiv.org/pdf/1904.00830.pdfGithub

地址:https://github.com/baowenbo/

DAIN這篇文章的第一作者Bao Wenbo,是上海交通大學電子信息與電氣工程學院的博士生。具體工作是基于其在2018年發(fā)表的論文MEMC-Net做的改進。

具體效果類似于英偉達開源的Super SloMo,即能夠從普通的視頻“腦補”出高幀率的畫面,從30fps插幀到240fps,即使放慢8倍也不會感到卡頓。

而這個新的插幀算法DAIN比英偉達的算法效果更清晰、幀率更高,可以把30fps的進一步插幀到480fps。具體到算法層面,研究人員提出了一種通過探索深度信息來檢測遮擋的方法。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

一個深度感知光流投影層來合成中間流,中間流對較遠的對象進行采樣。此外,學習分層功能以從相鄰像素收集上下文信息。更為具體的如上圖所示,整個算法分為光流、深度、上下文特征、插值kernel、框架合成這幾個部分。

在光流估計模塊,采用PWC-NET光流估計模型,由于在沒有監(jiān)督的情況下學習光流是非常困難的,所以作者從預(yù)先訓練好的PWC-Net中初始化光流估計網(wǎng)絡(luò)。

在深度部分,不同于過去的網(wǎng)絡(luò)模型采用的是計算平均值的方式,為了處理處理遮擋區(qū)域的問題,此作者提出了一種使用深度輔助來計算tt時刻的光流融合結(jié)果。融合的權(quán)重使用的是深度值的倒數(shù),簡單的來說就是深度值越大的像素(距離越遠的像素),在光流合成的時候所占的權(quán)重越小。

上下文特征部分,作者提出,在CtxSynNet論文中已經(jīng)證明上下文信息(contextual feature)的加入對視頻插值有一定幫助。所以在這篇論文中,作者基于Residual block自己設(shè)計了一個提取上下文特征的網(wǎng)絡(luò),并從頭開始訓練。

插值kernel自適應(yīng)warping layer部分,主要思想是通過光流找到像素的新位置后,將其新位置周圍4x4范圍內(nèi)與一個特殊的kernel相乘后作為該點的像素值。這個kernel由兩部分相乘得出,一部分是我們圖像縮放時常用的雙線性插值,其中每個位置的權(quán)重只與坐標距離有關(guān),另一部分也是一個內(nèi)插值kernel,是通過網(wǎng)絡(luò)學習得出的。

框架合成。為了生成最終的輸出幀,作者構(gòu)建了一個幀合成網(wǎng)絡(luò),該網(wǎng)絡(luò)由3個個殘差塊組成。并將扭曲的輸入warped深度圖、warped上下文特征、warped和插值核連接起來作為幀合成網(wǎng)絡(luò)的輸入。此外,還對兩個warped幀進行線性混合,并強制網(wǎng)絡(luò)預(yù)測地面真實幀和混合幀之間的殘差。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

損失函數(shù)是真實幀和混合幀之間的殘差,這種函數(shù)名為Charbonnier Loss,是一種L1 loss的變種,只不過加了一個正則項。所采用的訓練數(shù)據(jù)集是Vimeo90K,其有51312個三元組用于訓練,其中每個三元組包含3個連續(xù)的視頻幀,分辨率為256×448像素。

具體在訓練過程,作者用網(wǎng)絡(luò)來預(yù)測每個三元組的中間幀(即,t=0.5)。在測試時,模型能生成任意中間幀。另外,還通過水平和垂直翻轉(zhuǎn)以及顛倒三元組的時間順序來增加訓練數(shù)據(jù)。

在具體的訓練策略中,作者使用AdaMax優(yōu)化網(wǎng)絡(luò),分別設(shè)置 β1 and β2為0.9 和 0.999,并將核估計、上下文提取和幀合成網(wǎng)絡(luò)的初始學習率設(shè)置為1e?4。由于流估計和深度估計網(wǎng)絡(luò)都是從預(yù)先訓練的模型初始化而來的,因此分別使用較小的學習率1e?6和1e?7。

另外還對整個模型進行30個epoch的聯(lián)合訓練,然后將每個網(wǎng)絡(luò)的學習率降低0.2倍,并針對另外10個epoch對整個模型進行微調(diào)。值得一提的是,作者在NVIDIA Titan X(Pascal)GPU卡上訓練模型,大約用了5天達到收斂狀態(tài)。

關(guān)于實驗結(jié)果,放兩張在不同數(shù)據(jù)集上與近年論文的優(yōu)劣,這里不做過多分析??偟膩碚f,作者提出了一種depth-aware視頻插幀方案,并嘗試顯式的解決遮擋區(qū)域的問題。借用PWC光流coarse-to-fine的思路,嘗試解決large motions的問題。使用學習的分層特征和深度作為上下文信息,更好的合成中間幀。那么,這種類型的深度學習技術(shù)在具體的電影修復中能發(fā)揮什么樣的作用呢?2019年的幾部AI修復的影片或許能給我們答案。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

雷鋒網(wǎng)

開國大典、決勝時刻皆是AI修復

去年是建國70周年,除了氣勢恢宏的閱兵給人們留下了深刻的印象之外,10月下旬上映的《開國大典》也著實讓人感動了一把,這部電影展現(xiàn)了三次戰(zhàn)役勝利到開國大典的整個歷史過程。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

雷鋒網(wǎng)

這部電影在1989年9月21日初映,全片分為18卷,共164分鐘。由于當時的拍攝條件,重新上映必須修復畫質(zhì)。在修復過程中,制作方最大化地利用DRS修復系統(tǒng)的功能,把自動化修復與人工修復結(jié)合。

通過AI算法,老膠片存在的收縮、卷曲等問題都可以得到解決,但是膠片的撕裂、劃痕等都需要專業(yè)的修復師一幀一幀地進行修補。但是膠片的撕裂、劃痕等都需要專業(yè)的修復師一幀一幀地進行修補。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

雷鋒網(wǎng)

除了《開國大典》,9月份上映的《決勝時刻》也是采用了AI技術(shù),據(jù)電影制片方爆料,這段材料來自于俄羅斯的一段彩色紀錄片,但由于年代久遠,畫質(zhì)模糊,色彩失真。而經(jīng)過了復雜的 4K 修復工作之后,最終呈現(xiàn)出這般極致的畫面體驗。

另外,《厲害了,我的國》就是中影電影數(shù)字制作基地數(shù)字修復中心主任肖搏及其團隊利用AI修復進行的一次嘗試。

為了更順利地進行修復工作,肖搏團隊開發(fā)了“中影·神思”人工智能圖像處理系統(tǒng),靠計算機大數(shù)據(jù)深度學習算法,在四個月內(nèi)修復增強了30萬幀圖像。利用“中影·神思”,修復一部電影的時間可以縮短四分之三,成本減少了一半。

而愛奇藝開發(fā)ZoomAI也是一款基于深度學習的視頻修復技術(shù),此技術(shù)內(nèi)部由多個模塊組成,每個模塊負責一種或者幾種畫質(zhì)增強的方向,比如超分辨率,去除噪聲,銳化,色彩增強等等。

每個模塊都是由一個或者多個深度學習模型組成。綜上所述,利用卷積神經(jīng)網(wǎng)絡(luò)和最先進的圖像識別技術(shù),讓經(jīng)典老電影重現(xiàn)光彩已經(jīng)不是遙不可及的事情。與其他方法相比,通過基于深度學習的技術(shù)來修復電影可以節(jié)省時間和精力。經(jīng)典電影的修復和數(shù)字化也能使人們能夠更方便地獲得更多文化產(chǎn)品。

參考文獻

https://towardsdatascience.com/neural-networks-help-upscale-conversion-of-famous-1896-video-to-4k-quality-d2c3617310fehttps://cloud.tencent.com/developer/article/1507729https://baijiahao.baidu.com/s?id=1657837274349020022&wfr=spider&for=pc


雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。

影史第一片《火車進站》秒變 4K 高清,AI 預(yù)測+插值,黑白也能變“彩電”

分享:
相關(guān)文章
當月熱門文章
最新文章
請?zhí)顚懮暾埲速Y料
姓名
電話
郵箱
微信號
作品鏈接
個人簡介
為了您的賬戶安全,請驗證郵箱
您的郵箱還未驗證,完成可獲20積分喲!
請驗證您的郵箱
立即驗證
完善賬號信息
您的賬號已經(jīng)綁定,現(xiàn)在您可以設(shè)置密碼以方便用郵箱登錄
立即設(shè)置 以后再說