资讯 人工智能
此为临时链接,仅用于文章预览,将在时失效

伯克利最新研究:GANs在字体风格迁移上的应用

作者:杨文
2018/03/17 12:06

雷锋网AI科技评论按:怎样能快速生成风格相同的字体呢?伯克利AI研究院最新发表的一篇博客告诉你他们最新的研究。以下是雷锋网AI科技评论对原博文的编译。

伯克利最新研究:GANs在字体风格迁移上的应用

左:给出的电影海报,右:由MC-GAN生成的新电影片名

文字是平面设计中很突出的视觉元素。艺术家投入大量时间来设计不同的字形,使得它与其他元素在形状和纹理上相协调。这个过程是需要大量劳动力的,艺术家通常只设计标题或注释所需的字形子集,这使得设计一旦完成后,要想将观察到的字体形式迁移到自己的项目中或改变文本变得很困难。

字形合成的早期研究主要集中在轮廓的几何建模上,限于特定的字形拓扑(例如,不能应用于装饰性文字或手写字形),不能用于图像输入。随着深度神经网络的兴起,研究人员已经研究了从图像中建模字形的方法。此外,与局部观察一致的人工合成数据是计算机视觉和图形中的一个有趣问题,例如多视图图像生成,完成图像中的缺失区域以及生成 3D 形状。字体数据就是一个提供了纯净的风格和内容的因式分解示例。

有条件生成对抗网络(cGANS)[1] 的最新进展在许多生成应用中取得了成功。但是,它们只在相当专业化的领域才能做到最好,而在一般的或多领域的风格转移中表现的一般。同样,直接用于生成字体时,cGAN 模型会产生重要的人为因素。例如,鉴于以下五个字母:

伯克利最新研究:GANs在字体风格迁移上的应用

有条件生成对抗网络模型在生成具有相同样式的 26 个字母中表现的并不成功:

伯克利最新研究:GANs在字体风格迁移上的应用

适用于少数字体样式转换的多内容生成对抗网络

我们没有为所有可能的字体训练单一网络,而是设计了多内容的 GAN 体系结构 [2],为每个观察到的字符集重新定制了一个神奇网络(只有少数观察到的字型)。该模型考虑沿着网络层的频道和风格(即字形装饰)的内容(即,A-Z 字形)将给定的字形的风格转移到未看到的字形的内容。多内容的 GAN 模型由一个堆叠的 cGAN 架构组成,用于预测粗略的字形形状,以及一个装饰网络来预测最终字形的颜色和纹理。第一个称为 GlyphNet 的网络预测了字形蒙版,而第二个网络称为 OrnaNet,用于对来自第一个网络的生成的字形进行颜色和装饰。每个子网络都遵循有条件的生成对抗网络(cGAN)体系结构,该体系结构因其特有的雕刻字形或装饰预测目的而修改。

网络架构

下面是 GlyphNet 的示意图,用于从一组训练字体中学习字体流形的一般形状。GlyphNet 的输入和输出是为每个字母分配通道的字形堆栈。在每次训练迭代中,x1 包含随机选择的 y1 个字形子集,其余输入通道被清零。

伯克利最新研究:GANs在字体风格迁移上的应用

通过这种新颖的字形堆栈设计,不同字形之间的相互关系可通过网络渠道获知,以便自动传输其样式。以下图表通过结构相似性(SSIM)度量对随机设置的 1500 个字体示例的这种相关性进行表示。计算每个生成的字形与其基本事实之间的结构相似性时,一次只观察一个字母就可以找到 25 个分布。这些图显示了当字母β被观察到时(蓝色)与其他字母而不是β被给出(红色)时生成字母α的分布α|β。图中显示了两个信息最丰富的给定字母的分布和两个最不明显的信息,分别用于生成 26 个字母。例如,查看图中的第五行,字母 F 和 B 在生成字母 E 时最有建设性,与其他字母相比较,而 I 和 W 是信息量最少的字母。作为其他例子,O 和 C 是用于构造 G 以及用于生成 P 的 R 和 B 的最具指导性的字母。

伯克利最新研究:GANs在字体风格迁移上的应用

因此,对于只有少数观察字母的任何想要的字体,预先训练的 GlyphNet 会生成全部 26 个 A-Z 字形。但我们应该如何转移装饰?第二个网络 OrnaNet 采用这些生成的字形,并在经过简单的重塑转换和下图中用 T 表示的灰度信道重复后,使用条件 GAN 体系结构生成富含希望颜色和装饰的输出。OrnaNet 的输入和输出是批量的 RGB 图像,而不是堆栈,其中每个字母的 RGB 通道作为图像重复其由 GlyphNet 生成的相应灰度字形。OrnaNet 中的多个正规化处理程式化字母的掩码与相应字形的偏差。

伯克利最新研究:GANs在字体风格迁移上的应用

结果

下面,我们演示使用单个词中给出的字体样式的示例句子。

伯克利最新研究:GANs在字体风格迁移上的应用

另外,这里是OrnaNet预测的逐步改进:

伯克利最新研究:GANs在字体风格迁移上的应用

参考文献

[1] Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A. Efros. "Image-to-Image Translation with Conditional Adversarial Networks." CVPR 2017.

[2] Samaneh Azadi, Matthew Fisher, Vladimir Kim, Zhaowen Wang, Eli Shechtman, and Trevor Darrell. "Multi-Content GAN for Few-Shot Font Style Transfer." CVPR 2018.

雷锋网报道

长按图片保存图片,分享给好友或朋友圈

伯克利最新研究:GANs在字体风格迁移上的应用

扫码查看文章

正在生成分享图...

取消
相关文章