资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

作者:宗仁
2016/12/07 20:20

根据你提供的图片内容和想要的风格重新“生成”一张新的图片,是今年很多滤镜粉玩过的一个爆火游戏,但如何把这个“游戏”迁移到视频上,并实现高质量的视频风格“生成”对于很多人来说并不熟悉,因为市面上这个功能大规模推向滤镜粉的厂商还并不多,粉丝们对这个技术背后的算法也不甚了解。不过在今年Siggraph Asia 2016上的参展商演讲中,腾讯AI Lab联合清华大学实验室的团队,就为我们现场讲解了关于视频风格变换的相关内容。

演讲者,黄浩智,腾讯AI Lab。

演讲提纲

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

在这之前,图片风格转换的问题,传统的方法:是基于手工提取特征来生成一张新的图片。而目前比较流行的使用深度学习的方法:是基于深度网络学习的特征来生成一张新的图片。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

一. 关于迭代的图像风格转换

今年的CVPR有一篇 oral文章 “Image Style Transfer Using Convolutional Neural Networks”,当时引起了学术界的广泛关注,讲的就是关于迭代的图像风格变换问题。

然后我们具体去做的时候,一般是这样的:

如下图所示,先用一个VGG—19图形识别和卷积网络提取输入图片的content和style特征。(这些提取的特征主要用于后面重构随机输入得到的结果)

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

当然,实际执行图片风格转换的时候,还要考虑产生内容损失和风格损失  

关于内容表示(CNN特征图像): 深度神经网络已经可以抽取高层次(抽象)的信息表征了。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下面是内容损失函数

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

关于风格表示

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下面是风格损失函数

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

下图是流程的展示。 

——一开始输入的随机噪声图,经过中间的(VGG 19)网络,在不同的层次分别提取的内容和风格特征,跟用户输入原图的内容进行比较,跟预先设定的另一张图(比如大师的某张油画图)的风格进行比较,然后计算出损失函数Ltotal。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

具体的风格变换算法中产生的总的损失=α*内容损失+ β*风格损失。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

但迭代图像风格变换自有它的缺陷之处。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

二. 关于前向图片风格转换

斯坦福大学的 Justin Johnson曾经提出一种使用前向网络完成图像风格变换的方法,发表于ECCV 2016。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

在其实践时,采用的图片转换网络层具体见下:

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

损失函数包下面三部分

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

最后的实践结果如下,质量非常不错。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

总的来说,使用前向图片风格转换

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

三. 关于迭代视频风格转换

将风格变换技术由图像向视频拓展最为直接的方式就是使用图像风格变换的技术逐帧完成视频的变换,但是这样很难保证视频帧间风格的一致性。为此 Ruder 等人提出了一种迭代式的做法 [Ruder, Manuel, Alexey Dosovitskiy, and Thomas Brox. "Artistic style transfer for videos." arXiv preprint arXiv:1604.08610 (2016)],通过两帧像素之间的对应关系信息来约束视频的风格变换。

不过,迭代式(Ruder et al.)的方法来处理视频的风格变换考虑了时间域的一致性,但是处理速度非常慢,处理一帧视频大约需要 3 分钟。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)


腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

那不考虑时空一致性又是什么结果呢?以静态图片转换为例。

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

实验结果是这样的

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

总的来说,迭代式(Ruder et. al)的方法来处理视频的风格变换

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

四. 关于前向迭代视频风格转换

所以AI Lab尝试了前向视频风格迁移

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

我们的方法:

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

最终,腾讯AI Lab

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

五.  小结

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

长按图片保存图片,分享给好友或朋友圈

腾讯AI Lab现场揭秘:实时视频风格转换是如何生成的|SIGGRAPH Asia 2016 (附PPT)

扫码查看文章

正在生成分享图...

取消
相关文章