四大指标超现有模型!少样本的无监督图像翻译效果逆天| 技术头条

作者 | Ming-yu Liu, Xun Huang, Arun Mallya, Tero Karras, Timo Aila, Jaakko Lehtinen
译者 | linstancy
编辑 | Rachel
出品 | AI 科技大本营(ID:rgznai100)
【导读】在已有的图像翻译研究中,模型需要使用大量的多类别图像数据,在一定程度上限制了模型的具体应用。本文提出了一种基于少样本目标类别图像的图像翻译模型,该模型在翻译准确度、内容保留程度、图像真实度和分布匹配度四个指标上都超越了现有模型的效果。
? ? ??
摘要
无监督的图像翻译方法通过在不同的非结构化图像数据集上进行学习,将指定类别的图像转换为另一类别的图像。现有方法虽然取得了一定进展,但在模型训练期间需要大量的源类别和目标类别的图像,限制了这类方法的实际应用。
本文通过将一个新的神经网络架构和对抗学习相结合,提出了一种少样本的无监督图像翻译算法。该模型能够使用少量样本图像,针对新出现的图像类别进行图片生成。作者将该模型与几种现有方法进行了比较,结果表明,这种基于少样本的无监督图像翻译算法非常有效。该论文的代码已开源,相关项目地址如下:
https://nvlabs.github.io/FUNIT
简介
人类非常擅长通过学习、类比推理等方法,将现有的知识泛化推广到一些未见过的问题上。例如,即使对于没见过老虎的人来说,当看到一只站立的老虎,他也能根据对其他动物的观察经验,联想到老虎躺着的样子。近来无监督的图像翻译研究在不同图像类别间的翻译中取得了长足的进步,但现有方法依然很难依据先验知识和少量新类别的样本图像,对图像进行泛化。
当前的图像翻译方法需要大量各类别的图像用于翻译模型的训练。针对这些问题,本研究提出一种少样本无监督图像翻译框架?(Few-shot UNsupervised Image-to-image Translation, FUNIT),旨在只利用少量的目标类图像,通过学习到的图像翻译模型,将源图像类别图像范围为到目标类别的图像。
该模型的假设如下:人类基于少样本的生成能力来源于过去的视觉知识,且在之前看过的不同种类的物体越多,该泛化生成能力越强。基于此,本研究使用了一个包含多种类别图像的数据集训练?FUNIT?模型,用来模拟过去所学习的多类别视觉知识。模型的目标为,只利用目标类别的少量样本图像,实现从源类别到目标类别的图像翻译任务。
研究假设,通过在训练中学习从少量新类别图像中提取该图像类别的外观模式,模型能够学习一个通用的外观模式提取器,并将该模式应用于未见过的类别图像实现图像翻译。本文的实验数据证明,训练集类别数的增加对于少样本图像翻译模型的性能提升是有帮助的。
本文模型结构基于对抗生成网络(Generative Adversarial Networks, GAN)。作者将 GAN 和新的网络架构耦合,获得了较好的实验效果。通过在不同数据集上的实验将模型与几种基线方法进行对比分析,作者对模型的效果进行了验证,发现在各种性能指标上?FUNIT?框架的表现都更好。
方法
本文所提出的?FUNIT?框架旨在基于少量的目标类别图像,将源类别图像映射为一些模型未学习过的目标类别的图像。具体来说,在模型训练阶段,本文所使用的图像来自一组图像类别的数据集合?(如各种动物类别的图像集),称之为源类别,用于训练多层级无监督的图像翻译模型?FUNIT。
这里,本文假设在不同类别间不存在处于同一姿态的动物的图像。在测试时,本文使用少量取自类别的图像样本,称之为目标类别,这一类别在模型训练时未使用。模型利用这些少量的目标类别图像样本,能够实现从源类别到目标类别的图像翻译本文提出的模型主要包括两部分:一个少样本图像翻译器 G 和一个多任务对抗判别器 D 。
少样本图像翻译器 G
少样本图像翻译器 G 由一个内容编码器?Ex,一个类编码器?Ey?和一个解码器?Fx?构成。其中内容编码器由多个 2D 卷积层和多个残差块(residual blocks)组成,用于将输入的内容图像?x?映射为内容潜在编码 zx ,其中 zx 是一个空间特征映射。类编码器包含多个?2D?卷积层并对卷积结果取均值。
而解码器是由多个采用自适应实例正则化方法?(AdaIN)?的残差块和多个卷积层结构组成。对于每个样本,AdaIN?方法对每个通道的样本激活值进行正则化,以获得其零均值和单元方差,之后通过一个仿射变换来缩放激活值。
如下图1所示,该仿射变换具有空间不变性,因此仅可以用于得到全局的外观特征信息。内容编码器能够提取到不随类别改变的隐层表征信息,而类别编码器学习特定类别的隐层表征。文本通过?AdaIN?层将类编码馈送到解码器,并使用类别图像来控制所生成的图像全局外观,使用内容图像决定图像的局部结构。
? ? ? ?
图1 训练:训练集数据由各种不同类别图像构成?(源类别),用于训练一个图像翻译模型。部署:展示了所提出的模型基于少量目标类别图像进行图像翻译的表现。?FUNIT 中生成器的输入由两部分构成:1)?内容图像;2)?目标类别图像集。旨在通过输入与目标类相似的图像来实现少样本图像翻译。
不同于现有的图像翻译研究中使用的条件图像生成器,这里?G?同时采用一张内容图像?x?和?K?个目标类别图像作为输入,并生成输出图像。假定内容图像属于类别?cx,而每个?K?类图像属于类别?cy。另外,?K?是个很小的数字,且?cx?与?cy?属于不同类别。如下图2所示。

图2 仿射变换表达式
G?将一张输入的内容图像映射到属于类别?cy?的输出图像,二者在图像结构上有一定的相似度。以?S?和?T?分别代表源图像和目标图像集,在训练期间从两个集合中随机抽取图像供?G?学习,在测试期间?G?从目标集中抽取一些未见过的类别图像,并将源图像集数据类别映射到目标类图像上。
多任务对抗判别器 D
判别器?D?的训练是同时在几种对抗二分类任务上进行的,其用于判别输入图像是源类别的真实图像还是生成的目标类别图像。由于这里存在?S?个源图像类别,因此?D?将对应生成?S?个输出。当更新?D?时,根据输出的结果,相应地惩罚?D。当更新?G?时,只有当输出结果为假时才选择惩罚?D。经验上来说,通过这种方法处理后的判别器?D?能够在?S?多分类任务上表现得更好。
此外,FUNIT?框架所采用的损失函数如图3所示:由?GAN?模型损失、内容图像重构损失和特征匹配损失构成。

图3 FUNIT 框架的损失函数表达式
GAN?模型损失的计算如图4:
?
图4 GAN 模型的损失表达式
重构损失的数学表达式如图5:

图5 重构损失表达式
而图像特征匹配损失旨在最小化目标类图像特征与翻译输出结果图像之间特征匹配度,如图6:
? ? ? ? ? ? ? ? ? ?
?? ? ?
图6 特征匹配损失表达式
实验
实验部分使用如下四种数据集:
动物面孔数据集:从?ImageNet?数据集中抽取149种卡通动物类别,共含117574张图像。
鸟类数据集数据集:包含48527张攻击555种北美鸟类图像数据。
花卉数据集:102类共8189张包含花的图像。
事务数据集:来自256种共31395张食物图像数据。
基准方法分别使用的是?StarGAN-Fair-K?、 StarGAN-Fair-K 、?CycleGAN-Unfair-K?、?UNIT-Unfair-K?和?MUNIT-Unfair-K 五种,分别通过?翻译准确率(translation accuracy)、内容保留程度(content preservation)、图像真实度(photorealism)?和 分布匹配度(Distribution matching)四种指标来评估各种方法的性能。
总体结果?FUNIT?与基准方法在不同数据集的实验结果如下图7所示。
? ? ? ?
图7?各方法的性能对比
可以看到,FUNIT?框架在少样本无监督图像翻译任务上所有的性能指标都超过了所有基准方法的表现:在?Animal Faces?数据集的?1-shot?和?5-shot?设置上分别达到82.36和96.05?的?Top-5?测试精度,在?North American Birds?数据集上分别达到60.19和75.75的?Top-5?测试精度。图8对?FUNIT-5?模型在少样本图像翻译任务上的结果进行了可视化。
? ? ?
图8 ?FUNIT-5?模型的少样本无监督图像翻译结果的可视化展示。从上到下,分别采用是动物面孔、鸟类、花卉和食物数据集样本。
可以看到?FUNIT?模型能够成功地实现从源图像到新类别图像的翻译。此外,在图9还提供了一些可视化的对比结果。

图9?少样本图像翻译性能的结果对比
用户研究?本文在?Amazon Mechanical Turk (AMT)?平台上通过人类评估法来进一步验证了图像翻译结果的可信度和真实度,结果如图10?所示。

图10?用户偏好得分结果
用户偏好得分评估结果表明,相比于其他方法,FUNIT-5?模型的翻译结果与目标类图像的相似度更高,可靠性更强。
训练集源类别数量?下图11展示了在动物数据集上,当类别数量发生变化时,FUNIT-5?模型的性能表现变化。这里只展示了类别数从69到119以间隔10变化时模型的表现。
? ? ? ?
图11?少样本图像翻译性能?vs 动物面孔数据集目标类别数
可以看到,FUNIT?模型的翻译性能与目标类别数呈正相关关系,即类别数越多,翻译性能越好。此外,研究中还进行了参数分析?(parameter analysis)、消融实验?(ablation study)、隐层插值?(latent interpolation)、失败样本分析?(failure cases)?等评估,具体信息可以查阅原论文的说明。
总结
本文介绍了首个少样本无监督图像翻译框架?FUNIT,该模型利用少量的目标类别图像,实现了从源类别图像到目标图像的翻译,并展示了该框架的性能与目标类别数的关系。FUNIT?由三部分构成:1)?内容编码器:用于学习类别不变编码;2)?类编码器:用于学习特定类别编码;以及?3)?解码器。
总的来说,FUNIT?框架能够实现非常出色的图像翻译,但当目标类别与源图像有显著差异时,也会存在一些失败的情况。在失败样本中,FUNIT?方法仅对源图像的颜色进行了变更,而改变图像的其他外观特征,这也是未来研究的方向。
论文链接:
https://arxiv.org/abs/1905.01723
(*本文由AI科技大本营编译,转载请联系微信1092722531)
◆
CTA核心技术及应用峰会
◆
5月25-27日,由中国IT社区CSDN与数字经济人才发展中心联合主办的第一届CTA核心技术及应用峰会将在杭州国际博览中心隆重召开,峰会将围绕人工智能领域,邀请技术领航者,与开发者共同探讨机器学习和知识图谱的前沿研究及应用。
更多重磅嘉宾请识别海报二维码查看。目前会议8折预售票抢购中,点击阅读原文即刻抢购。添加小助手微信15101014297,备注“CTA”,了解票务以及会务详情。

推荐阅读

点击阅读原文,了解「CTA核心技术及应用峰会」
关注公众号:拾黑(shiheibook)了解更多
[广告]赞助链接:
四季很好,只要有你,文娱排行榜:https://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/
关注网络尖刀微信公众号随时掌握互联网精彩
- 1 中共中央召开党外人士座谈会 7904620
- 2 日本又发生6.6级地震 7808989
- 3 中国游客遇日本地震:连滚带爬躲厕所 7712207
- 4 全国首艘氢电拖轮作业亮点多 7618769
- 5 课本上明太祖画像换了 7521298
- 6 日本附近海域发生7.5级地震 7425821
- 7 银行网点正消失:今年超9000家关停 7333843
- 8 日本地震当地居民拍下自家书柜倒塌 7232759
- 9 亚洲最大“清道夫”落户中国洋浦港 7137320
- 10 “人造太阳”何以照进现实 7041588




![爱美足 No.141 莹莹[MZSOCK]](https://imgs.knowsafe.com:8087/img/aideep/2023/3/12/0f24fa4a5f9f6b6175e019d333a7af8d.webp?w=250)


AI100
