20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑贾浩楠 发自 凹非寺量子位 报道 | 公众号 QbitAI20分钟生成复杂的艺术作品,而且还是用英伟达上上代的1080显卡?现在神经网络上手门槛

大家好,欢迎来到IT知识分享网。

贾浩楠 发自 凹非寺
量子位 报道 | 公众号 QbitAI

20分钟生成复杂的艺术作品,而且还是用英伟达上上代的1080显卡?

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

现在神经网络上手门槛这么亲民了吗?

没错,这是一个叫做neural-style-pt的风格迁移模型,基于Pytorch实现,而且刚刚开源!

有关这个算法模型的话题在Reddit上才发布一天,热度接近2000。

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

neural-style-pt,真的酷炫又亲民吗?

丰富的融合方式

neural-style-pt是论文A Neural Algorithm of Artistic Style的Pytorch实现。

论文介绍了一种利用卷积神经网络将一张图片的内容,与另一张图片的风格相结合的算法,就是我们熟知的“风格迁移”网络。

比如,将《星空》的艺术风格映射到一张斯坦福校园的夜景照片上:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

或者根据给定图像的不同艺术风格,分别融合进目标图片:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

除了“分别”融合,还能把多个艺术风格融进一张图片:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

从左上角顺时针开始风格分别为”星空 “+”呐喊”、”呐喊 “+”构图七(瓦西里·康定斯基油画)“、”坐着的裸女(莫蒂里安尼油画) “+”构图七”、”坐着的裸体 “+”星空”。

在进行风格迁移时,添加“-original_colors 1”指令,还可以只改变风格,不改变原图颜色:

20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

1080卡就能跑?

根据后台和优化器的不同,算法运行速度会有很大差异。

在Tesla K80上使用512像素图片迭代500次时间参考:

  • 后台nn、优化器L-BFGS: 117秒
  • 后台nn、优化器 ADAM: 100秒
  • 后台cudnn -优化器L-BFGS: 124秒
  • 后台cudnn -优化器ADAM:107秒
  • 后台cudnn -cudnn_autotune -优化器L-BFGS: 109秒
  • 后台cudnn -cudnn_autotune -优化器ADAM: 91秒
  • 而在GTX 1080上,相同基准下时间更快:

  • 后端nn -优化器L-BFGS: 56秒
  • 后台nn -优化器 ADAM: 38秒
  • 后台cudnn -优化器L-BFGS: 40秒
  • 后台cudnn -优化器ADAM:40秒
  • 后台cudnn -cudnn_autotune -优化器 lbfgs: 23秒
  • 后台cudnn -cudnn_autotune -优化器ADAM: 24秒
  • 结合当下1080卡的售价,不得不说,这样的门槛,对于机器学习来说,已经很香了。

    默认情况下,neural-style-pt使用后端进行卷积,L-BFGS进行优化。但会使用大量的内存,可以通过以下方法来减少内存的使用。

    使用cuDNN,添加-backend cudnn来使用cuDNN后端。而使用ADAM时,添加-optimizer adam来使用ADAM而不是L-BFGS。

    在默认设置下,neural-style-pt在系统上使用了大约3.7GB的GPU内存;切换到ADAM和cuDNN可以将GPU内存占用减少到大约1GB。

    如何上手试玩

    安装neural-style-pt,首先要准备好Pytorch。

    然后,使用下方一句话指令就能安装已经训练好的模型:

    python models/download_models.py

    安装完以后,上手试玩也很简单,一行代码就能实现:

    python neural_style.py -style_image-content_image

    如果要载入多种风格,需要分隔不同的图片文件名:

    -style_image starry_night.jpg,the_scream.jpg

    注意,图片名称要包含完整的地址路径。

    基本操作就是这些。

    neural-style-pt还有一点强大的功能,就是可以使用多个不同的计算设备来处理高分辨率图像。

    不同的设备会输出不同网络层的计算结果。

    你可以用-gpu指令控制使用哪些GPU和CPU设备,你也可以用-multidevice_strategy控制如何在不同设备上分割层。

    例如,在一个有四个GPU的服务器中,指令“-gpu 0,1,2,3”,指按顺序在GPU 0、1、2和3上进行处理。

    同时给出 -multidevice_strategy 3,6,12指令,表示前两层应该在GPU 0上计算,第3到5层应该在GPU 1上计算,第6到11层应该在GPU 2上计算,其余的层应该在GPU 3上计算。

    根据你的需求调整-multidevice_strategy,可以达到输出的最大分辨率。

    下面是一张4016×2213分辨率图像,是在使用8个Tesla K80 GPU的服务器上生成的:

    20分钟,这个AI就能创造复杂艺术作品!1080显卡就能跑

    1080显卡入门,还能“分布式”计算,这么酷炫好玩低门槛的风格迁移网络,赶快来试试吧~

    传送门:
    https://github.com/ProGamerGov/neural-style-pt

    免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/78056.html

    (0)

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    关注微信