作者 | lllyasviel 原文 | 新智元
Style2paints V4版本来了!这是目前最好的线稿上色AI工具,由苏州大学和香港中文大学的团队创造,作者提供线上APP和中文教程,赶紧来试试吧!
还记得那个给本子上色的Style2paints吗?这是目前最好的线稿上色AI工具,没有之一。
Style2paints由苏州大学和香港中文大学的团队创造,现在,作者发布了它的V4版本。
发布上一个版本时,作者在知乎专栏中写道:“借助人工智能,任何人都能快速给漫画上色的时代真的到了! ”
“您现在看到的是人工智能界目前唯一的一个真正能够让任何人都可以快速(15 分钟一页的速度)给自己喜欢的本子上色的技术。本文技术发布之前的任何人工智能技术都做不到这一点。”
而style2paint V4的效果之前的版本更好,也超越了同类模型Paintschainer。
style2paints V4的想法很简单:在标准的人类工作流程中进行上色,想这样:
填充颜色>>添加颜色渐变>>添加阴影
作者设计了一个白盒系统,将三个分开的pipeline组合在一起,进行颜色填充、制作颜色渐变和渲染。
该系统的强处:
最高的质量。在针对53个草图和6位使用者的用户研究中,style2paint V4在100%的情况下击败了所有之前版本的style2paint和所有之前版本的paintschainer。
广泛分布的用例。style2paint V4的输出是层。艺术家可以从结果中选择他们需要的层。style2paint V4是第一个实现这一点的AI系统。
鲁棒性。在这个GitHub库中展示的所有结果都是来自不同国家的艺术家和Twitter用户使用现实中的线稿生成的。来自真实生活中的twitter用户的结果比其他任何东西都更令人信服。
不足之处:
无法处理整页漫画。因为模型是在线稿上训练的,所以我们的系统不能给大多数整页漫画上色。整页漫画可以用MangaCraft。
对于欧美漫画的线稿比较弱。
仍然不能给非常复杂的线稿上色。
GitHub:https://github.com/lllyasviel/style2paints
漫画家的强大AI助手:获得分层结果
与以往的端到端image-to-image的转换方法不同,style2paint V4是第一个在现实生活的工作流中对线稿进行着色的系统,而且,它的输出是分层的。
输入:
线稿图
人类提示(可选)
颜色样式参考图像(可选)
光线位置和颜色(可选)
输出:
无线条自动颜色展平
黑色线条自动颜色展平
无线条自动着色
黑色线条自动着色
彩色线条自动着色
自动渲染(分层)
自动渲染着色
Style2paint V4提供了目前最高质量的结果。并且,你可以从系统中分离出不同的层,这些层可以直接用在你的绘画工作流程中。
与以往的人工智能上色处理工具不同的是,Style2paint V4的结果不是单一的’JPG/PNG’图像,而是是’PSD’层。
作者提供了在线APP,试用请戳:http://s2p.moe/
用户指南:https://style2paints.github.io/
大多数人类艺术家都很熟悉给漫画线稿上色的工作流程:
草绘->颜色填充/展平->添加渐变/细节->阴影
对应的层是:
lineart layers + flat color layers + gradient layers + shading layers
style2paint V4正是为这个标准的着色工作流程而设计的!在style2paint V4中,你可以获得每个步骤的结果!
示例
这里我们用ABCD格式展示了一些结果。用户只需要上传自己的草图,选择一个样式,然后选择一个光源。
无需人类色彩校正的情况下,结果立即就能得到。
如果需要色彩校正,用户可以很容易地在画布上添加一些色彩提示来指导AI的着色过程。
在这个示例中,我们将这些结果视为半自动的。如果半自动的结果中,人类色彩提示点的数量小于10,则认为这些结果是几乎全自动的。
以下的示例中,大约一半的结果是全自动的,其余是几乎全自动的结果。
并且,以下所有结果都只需不到15次鼠标点击即可完成。
请看视频演示:
视频完全是屏幕录制,没有任何修改或速度修改。
示例1
从视频的11:28开始。
所有人类局部颜色修改:只需3次点击。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
示例 2
在视频的06:19开始。
所有人类局部颜色修改:只需2次点击。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
示例 3
从视频的01:40开始。
所有人类局部颜色修改:只有6次点击。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
示例 4
从视频的00:42开始。
无人类局部颜色修改。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
示例 5
从视频的02:57开始。
无人类局部颜色修改。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
示例 6
从视频的07:57开始。
所有人类局部颜色修改:11次点击。
示例 8
从视频的04:27开始。
所有人类局部颜色修改:只需3次点击。
示例 9
从视频的09:46开始。
所有人类局部颜色修改:只需5次点击。
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
Style2Paints V4 教程
作者提供了Style2Paints V4 教程,任何人都能在十分钟内学会!
你只需要一张线稿:
*CC-BY-NC-SA-4.0 (c) Various artist of style2paints team, 2018. This image is OK for ACM/IEEE fair use.
然后上传,选择一个合适的AI画师,然后,事情就变成了这样:
你可以滚动滚轮,右键拖拽画布,来查看细节;通过左键点击来添加提示点来控制局部颜色;点击上色按钮来刷新上色结果。
值得一提的是,最新版本的软件提供细心模式和粗心模式: careful mode (细心模式) 和 careless mode (粗心模式)。
在细心模式 (careful mode)中,人工智能会细心的涂抹平滑,精细的颜色。但是这个模式下的人工智能会限制自我的发挥来迎合人类。
在粗心模式 (careless mode)中,人工智能会自己发挥,但是可能细节上会出现丢失。同时可能人工智能会反抗你的提示。
完整教程地址:
https://style2paints.github.io/README_zh
GitHub:
https://github.com/lllyasviel/style2paints
在线APP:
http://s2p.moe/
推荐阅读
20张图表达程序员的心酸
资源 | 让你事半功倍的小众Python库
下载 | Pytorch最新教程【PDF】
【收藏】Git使用教程:最详细、最傻瓜、最浅显、真正手把手教!
GitHub上25个最受欢迎的开源机器学习库
177页《鲁棒机器学习》教程【下载】