摘要:不過,今年月問世的第一版其實效果還可以,實現(xiàn)了基于語義信息遷移的顏色提示,讓上色效果更加和諧。生成過程迅速,效果尚好。作者在上回答說,和上一版相比,大部分訓練都是純粹無監(jiān)督,甚至無條件的。
給喜歡的動漫形象建個了收藏夾,里面收集她的各種圖片……懂,誰沒幾個喜歡的動漫萌妹呢。
一些手繪線稿也很可愛,但黑白配色總會略顯單調(diào)。
請記住這張線稿
半年前線稿上色AI style2paints的破殼曾讓自動上色火了一陣。好消息是,昨天,升級版本style2paints 2.0也問世了!
Demo也一并放出,用戶可以隨意試玩~
Demo界面
據(jù)作者說,style2paints 2.0比一代效果更好,而且模型的訓練過程是無監(jiān)督的。
效果驚艷
只需線稿一張,輕點一下,就能給你珍藏的心愛萌妹上個色。
上面線稿的轉換效果
贊贊的!不僅如此,換一張其他的彩色參考圖,也能將線稿轉化成另一種顏色風格。
比如我們輸入下面這張參考圖:
上面那張示例圖就變成了下面的效果——
還可以從參考圖中選取顏色,然后用筆在線稿的某個區(qū)域上點一下,AI就會按你的提示去重新填充——
支持微調(diào)的線稿上色軟件不止一家,不過作者介紹說,和同類軟件相比,style2paints的“提示筆”是最較精確的,用戶可以用3×3的筆跡,在1024×2048的畫面上,控制13×13的區(qū)域。
為了確保最終畫作顏色協(xié)調(diào),style2paints還玩了一點小心機:用戶不能自己輸入顏色,只能從參考圖上選。
并不簡單
玩得盡興之后,你可能會說,風格遷移嘛,我們見得多了~
但是,把黑白照片變成彩色照片,和把沒有陰影高光的線稿變成彩色圖畫難度不同。
這種由純線條構成的草圖不包含圖案的明暗和紋理。也就是說,AI需要自動腦補出這些信息。
何況style2paints作者對線稿上色的期望,實在是比較高,并不是在線條之間填一些顏色就完事了:
在一幅好漫畫里,妹紙的眼睛要像星系一樣閃亮,臉頰要彌漫著紅暈,皮膚要精致迷人。
大概是這個效果吧
這怎么做得到!
style2paints 2.0目前還沒有相關論文放出,只有代碼可供參考。不過,今年6月問世的第一版其實效果還可以,實現(xiàn)了基于語義信息遷移的顏色提示,讓上色效果更加和諧。
具體的原理可以看當時的論文Style Transfer for Anime Sketches with Enhanced Residual U-net and Auxiliary Classifier GAN
,來自蘇州大學的三位作者Lvmin Zhang, Yi Ji, Xin Lin介紹了怎樣將集合的剩余U-Net樣式應用到灰度圖中,并借助分類器生成的對抗網(wǎng)絡(AC-GAN)自動為圖像上色。生成過程迅速,效果尚好。
論文地址:
https://arxiv.org/abs/1706.03319
不一樣的2.0
style2paints第一版推出之后非常火,量子位的不少朋友都上手玩過。
不過,他們的主要競品paintschainer不停迭代,后來,上色的效果漸漸超越了style2paints 1.0,于是,作者們也坐不住了,開始研究新方法,更新了一版出來。
那么,2.0和1.0有什么不一樣嗎?
巧了,國外的網(wǎng)友也很關心。作者在Reddit上回答說,和上一版相比,style2paints 2.0大部分訓練都是純粹無監(jiān)督,甚至無條件的。
也就是說,在這個模型的訓練過程中,除了對抗規(guī)則之外沒有添加其他的人工定義規(guī)則,沒有規(guī)則來強迫生成器神經(jīng)網(wǎng)絡照著線稿畫畫,而是靠神經(jīng)網(wǎng)絡自己發(fā)現(xiàn),如果遵照線稿,會更容易騙過鑒別器。
pix2pix、CycleGAN等同類模型為了確保收斂,會對學習對象添加l1 loss,鑒別器接收到的數(shù)據(jù)是成對的[input, training data]和[input, fake output]。而style2paints 2.0模型的學習目標和經(jīng)典DCGAN完全相同,沒有添加其他規(guī)則,鑒別器收到的也不是成對的輸出。
作者說,讓這樣一個模型收斂其實是很難的,何況神經(jīng)網(wǎng)絡這么深。
不過你看,結果還不錯。
線稿上色的江湖
線稿上色的程序,其實有很多,比如說:
Paintschainer
https://paintschainer.preferred.tech/index_en.html
Deepcolor
https://github.com/kvfrans/deepcolor
Auto-painter
https://arxiv.org/abs/1705.01908
除了paintschainer,其他的同類產(chǎn)品其實作者是不太看得上的。
他說,很多亞洲論文都號稱能遷移漫畫風格,但是仔細看論文,會發(fā)現(xiàn)他們所謂的“新方法”就是個調(diào)整過的VGG,雖說VGG在風格遷移任務上普遍表現(xiàn)不錯,但是用在漫畫上,效果總是不怎么好。
還是得靠GAN,而且得允許用戶上傳風格參考圖,像Prisma那樣從莫奈梵高里選可不行,莫奈梵高又不會畫漫畫。
試試不?
上手玩一下Demo:
http://paintstransfer.com/
論文還沒出來,不過可以看源代碼呀:
https://github.com/lllyasviel/style2paints
歡迎加入本站公開興趣群商業(yè)智能與數(shù)據(jù)分析群
興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉庫,數(shù)據(jù)挖掘工具,報表系統(tǒng)等全方位知識
QQ群:81035754
文章版權歸作者所有,未經(jīng)允許請勿轉載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉載請注明本文地址:http://m.specialneedsforspecialkids.com/yun/4697.html
摘要:片中的受訪者幾乎涵蓋了全部當時主流英倫搖滾的核心人物成員。一本書籍這周不宜讀書老板,麻煩來一斤夢想,我可以可以在線支付嗎查看更多列表回顧九月份第一周為什么你的前端工作經(jīng)驗不值錢回顧九月份第二周前端你該知道的事兒回顧九月份第三周最近的資訊集合 原鏈接:http://bluezhan.me/weekly/#/9-1 1、web前端 JavaScript 函數(shù)式編程術語大全 Segment...
摘要:片中的受訪者幾乎涵蓋了全部當時主流英倫搖滾的核心人物成員。一本書籍這周不宜讀書老板,麻煩來一斤夢想,我可以可以在線支付嗎查看更多列表回顧九月份第一周為什么你的前端工作經(jīng)驗不值錢回顧九月份第二周前端你該知道的事兒回顧九月份第三周最近的資訊集合 原鏈接:http://bluezhan.me/weekly/#/9-1 1、web前端 JavaScript 函數(shù)式編程術語大全 Segment...
摘要:片中的受訪者幾乎涵蓋了全部當時主流英倫搖滾的核心人物成員。一本書籍這周不宜讀書老板,麻煩來一斤夢想,我可以可以在線支付嗎查看更多列表回顧九月份第一周為什么你的前端工作經(jīng)驗不值錢回顧九月份第二周前端你該知道的事兒回顧九月份第三周最近的資訊集合 原鏈接:http://bluezhan.me/weekly/#/9-1 1、web前端 JavaScript 函數(shù)式編程術語大全 Segment...
摘要:考慮這樣一個計算集合,它可以被允許在每一個節(jié)點和可能的圖結構中,并定義了一個函數(shù)族。傳統(tǒng)的前饋神經(jīng)網(wǎng)絡能夠被看做擁有等于層數(shù)的深度比如對于輸出層為隱層數(shù)加。理論結果證實那些事實上所需要的節(jié)點數(shù)隨著輸入的大小指數(shù)增長的函數(shù)族是存在的。 查看論文 Yoshua Bengio, Learning Deep Architectures for AI, Foundations and Trends i...
閱讀 1366·2021-09-02 10:19
閱讀 1108·2019-08-26 13:25
閱讀 2117·2019-08-26 11:37
閱讀 2421·2019-08-26 10:18
閱讀 2683·2019-08-23 16:43
閱讀 3012·2019-08-23 16:25
閱讀 784·2019-08-23 15:53
閱讀 3306·2019-08-23 15:11