Prisma实践篇:甩掉水印logo,自定义Prisma技能get√

引子:如果你看了我之前的那篇文章“火遍朋友圈的修图工具Prisma的背后是什么?”,可能觉得那不过是一堆枯燥无聊的理论。那么接下来这篇文章,绝对不会再让你停留在理论上。因为我会带你“Prisma 技能get√ ”


Prisma实践篇:甩掉水印logo,自定义Prisma技能get√_第1张图片

上文我说,要玩Prisma背后的深度神经网络,“你需要安装一堆lua,torch,caffe,cuda之类的玩意儿”,而其实这些东西的安装也并不困难。这里面,cuda以及nvida gpu driver并不是必须的,而且根据经验,好像gpu真的还跑得更慢一点(题外话:这个问题之前跟同事聊起过,我们自己的项目也遇到cpu跑得比gpu快的情况,但是由于并不是超大规模data,所以就没有细究。简单来说,单个数值运算gpu是跑不过cpu的。)

如果你在我的微信公众号后台回复关键词prisma,那么恭喜你已经获得参考链接,就能找到英文教程,这里就当我做些翻译并加部分说明,以避免想动手实践的各位绕弯路。

安装环境:ubuntu 14.04以上即可,mac os没有亲测,如果有bug,欢迎交流探讨debug

Tips: 建议在电脑端用url打开本文,更方便实际操作。

第一步:安装torch

curl -s https://raw.githubusercontent.com/torch/ezinstall/master/install-deps | bash

git clone https://github.com/torch/distro.git ~/torch --recursive

cd ~/torch; ./install.sh

source ~/.bashrc

Tips:安装请等待一段时间。最后一行不要忘记。torch安装结束自动在你的.bashrc里做好了必要的环境设置,但仍要手动更新.bashrc文件,不然就bug咯。

第二步:安装loadcaffe

这个是torch下的caffe。不知道caffe是什么?也许你听说过tensorflow,它们都是深度学习最为流行并好使的包。caffe比tensorflow更简单在基本不用写多少代码,所有的网络结构都是json表示,比如像这样:

layers {

        bottom: "conv1_1"

        top: "conv1_1"

        name: "relu1_1"

        type: RELU

}

在此之前,你需要安装一些dependency。而在github上未注明的一个大坑是,gcc和g++的版本必须一致,并在在5.0以上。这个坑我替你踩了。

Tips:请直接用gcc --version和g++ --version查看自己的版本

sudo apt-get install libprotobuf-dev protobuf-compiler

luarocks install loadcaffe

第三步:下载代码和预设模型

cd ~/git clone https://github.com/jcjohnson/neural-style.git

cd neural-style

sh models/download_models.sh

第四步:测试

如果你的电脑没有gpu,那么就在cpu模式下测试

th neural_style.lua -gpu -1 -print_iter 1

其实跑的还是有点慢的,就如prisma这个app我的个人体验延时也很高,而且它严重吃memory,如果不用gpu,电脑此时可能干不了别的事啦。小心使用,别把电脑搞崩咯~

第五步:完成

接下来,运行主程序neural_style.lua 即可!

th neural_style.lua -style_image -content_image

运行过程

Prisma实践篇:甩掉水印logo,自定义Prisma技能get√_第2张图片

设置每迭代100步有一个运行结果输出,下图分别是100步,300步,700步和最终1000步的结果:


Prisma实践篇:甩掉水印logo,自定义Prisma技能get√_第3张图片

Tips:如果你有gpu,可以使用参数 -backend cudnn。至于安装nvidia的驱动,下载cuda和cudnn这些我就当你会啦,或者私下交流。你还可以使用神经网络优化的一些算法比如 adam,使用参数 -optimizer adam。更多参数选择就参考github上的文档吧。

效果总结

Prisma实践篇:甩掉水印logo,自定义Prisma技能get√_第4张图片

使用adam可以减少memory的开销,也能跑的更快,但是使用体验发现效果比较粗糙。上图最上是adam效果,中间是lbfgs效果,最下是prisma官方效果。如果你读了上篇文章,就能约摸发现content与style之间的trade-off不够完善。显然,官方的效果经过了其他处理,或者使用的模型也有更多优化。不过至少logo去掉啦!

这毕竟是速成的结果。所以,下一步呢,咱找个天使,弄几台服务器,去Nvidia买几块GPU,拉3个小伙伴,一个写ios或Android,一个做运营,一个优化算法,是不是一家startup就开起来啦~~

哈,说是容易其实也没那么轻松。最后送大家一句我很喜欢的话,也忘了是哪里听来的或者我自己做了修改—— Idea is cheap, evil lives in details!

—— END ——

你可能感兴趣的:(Prisma实践篇:甩掉水印logo,自定义Prisma技能get√)