图像风格迁移实战

图像风格迁移实战最近看了一些基于深度学习的StyleTransfer,也就是风格迁移相关的paper,感觉挺有意思的。所谓风格迁移,其实就是提供一幅画(Referencestyleimage),将任意一张照片转化成这个风格,并尽量保留原照的内容(Content)。之前比较火的修图软件Prisma就提供了这个功能一、图像风格迁移(NeuralStyle)简史可以参考文章:图像风格迁移(NeuralStyle)简史二、实战所谓风格迁移,其实就是提供一幅画(Referencetyeimag

大家好,欢迎来到IT知识分享网。

最近看了一些基于深度学习的Style Transfer, 也就是风格迁移相关的paper,感觉挺有意思的。

所谓风格迁移,其实就是提供一幅画(Reference style image),将任意一张照片转化成这个风格,并尽量保留原照的内容(Content)。之前比较火的修图软件Prisma就提供了这个功能

一、图像风格迁移(Neural Style)简史

可以参考文章:

图像风格迁移(Neural Style)简史

二、实战

所谓风格迁移,其实就是提供一幅画(Reference tye image),将任意一张照片转化成这个风格,并尽量保留原照的内容(Conent。之前比较火的修图软件Prisma就提供了这个功能。我觉得这一说法可以改成风格迁移,将一张图的风格迁移到另一张图片上,也可以理解为生成问题,根据两种图片,生成第三种(风格)图片,具体看怎么理解怎么做吧《(不喜勿喷,纯个人观点)。比如下图,把一张图片的风格”迁移”到另一张图片上。论文地址:thtp slani oag odi1508.065762.pd然而,原始的风格迁移的速度是非常慢的。在GPU上,生成一张图片都需要10分钟左右,而如果只使用CPU而不使用GPU运行程序,甚至需要几个小时。这个时间还会驰着图片尺寸的增大而迅速增大。这其中的原因在于,在原始的风格迁移过程中,把生成图片的过程当做一个训练的过程。每生成一张图片,都相当于要训练一次模型,这中间可能会迭代几百几千次。如果你了解过一点机器学习的知识,就会知道,从头训练一个模型要比执行一个已经训练好的模型要责时太多。而这也正是原始的风格迁移速度缓慢的原因。(出处: https://zhuanlan.zhihu.com/p/24383274 )
 

图像风格迁移实战

下面就开始我们的风格迁移:

首先我们要引入一些工具包:

这些工具包都可以通过pycharm直接安装或者通过pip install来安装。

import tensorflow_hub as hub
import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np

 接下来,我们要确定我们的风格迁移的步骤,首先是我们要拿到一个原始图片(记得修改一下路径):

#原始图片
img=plt.imread('./picture/xxx证件照.jpg')
img=img/255.
#plt.imshow(img)
#plt.show()
#print(img)

 这里随便拿一张网络证件照为例子:

图像风格迁移实战

 接下来需要拿到风格图片,同样我们可以在网络上下载:

这里需要注意,我们的网络模型对输入的图像的初始大小(像素)有要求,所以使用了resize方法。

#风格图片
style_img=plt.imread('./picture/彩色.jpg')
style_img=style_img/255.
style_img = tf.image.resize(style_img, (256, 256))

 同样我们从网上下载几张图片:

图像风格迁移实战

 图像风格迁移实战

 很出名的星空和向日葵。

接下来就需要到最关键的风格迁移部分:

#风格迁移

hub_model = hub.load("C:\\Users\\Administrator\\Desktop\\imagenet")

 诶,很多小伙伴就要问了,怎么最难的部分最简单啊,就一行代码,哈哈哈哈,那是因为我们已经把需要的东西下载到本地了,就是很厉害的风格迁移的模型(别人已经做好了)。其实真实的代码应该是:

hub_model = hub.load('https://tfhub.dev/google/magenta/arbitrary-image-stylization-v1-256/2')

 但是,很多小伙伴翻不了墙,加载不了模型,而且,即使你可以翻墙,程序运行时候加载模型真的会很慢很慢,所以这里推荐大家直接下载好模型,直接去用就行了!记得修改本地地址就行。

下载的东西我已经准备好了,在这里,大家直接去下载就行了:

tensorflowhub中的风格迁移模型-机器学习文档类资源-CSDN下载

下面是官网的界面:

图像风格迁移实战

而你需要的是复制下面那一行绿色的:

图像风格迁移实战

 好的,加载完模型,我们就可以训练,然后输出了:

# 把输入规范一下,
# 改变维度
before_img_ = before_img[np.newaxis,:,:,:]
style_img_ = style_img[np.newaxis,:,:,:]


# 传入的是Tensor对象
before_img_ = tf.convert_to_tensor(before_img_,dtype=tf.float32)
style_img_ = tf.convert_to_tensor(style_img_,dtype=tf.float32)




outputs = hub_model(before_img_,style_img_)

# 输出有趣的图片[[[]]]
# print(outputs[0][0])



# 创建子图
plt.subplot(1,3,1)
plt.xlabel('before')
plt.xticks([])
plt.yticks([])
plt.imshow(before_img)

plt.subplot(1,3,2)
plt.xlabel('style')
plt.xticks([])
plt.yticks([])
plt.imshow(style_img)

plt.subplot(1,3,3)
plt.xlabel("after")
plt.xticks([])
plt.yticks([])
plt.imshow(outputs[0][0])


plt.show()



# 图片的保存
X = (outputs[0][0]) * 255
print(X)
# 将X转化为Tensor对象
img = tf.cast(X,dtype=tf.uint8)
# 编码回图片,二进制
img = tf.image.encode_png(img)

print(img)
# 图片保存的路径
save_path = './data/1.jpg'

# 文件的保存
with tf.io.gfile.GFile(save_path,'wb') as file:
    file.write(img.numpy())

 最后得到的图片:

图像风格迁移实战图像风格迁移实战图像风格迁移实战图像风格迁移实战

哈哈哈哈,是不是很好玩,还有点好看嘞! 

喜欢的小伙伴点赞加关注哦! 

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/21578.html

(0)

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信