如何将CycleGAN用于风格迁移并探索其在游戏图形模型中的应用
用神经网络尝试在《堡垒之夜》中重现《绝地求生》的画面风格。
本文旨在了解如何将CycleGAN 用于风格迁移并探索其在游戏图形模型中的应用。
如果你是一名游戏玩家,肯定听说过如今最火的两款「吃鸡」游戏:《堡垒之夜》(Fortnite)和《绝地求生》。这两个游戏很相似,都是 100 名玩家降落在一个小岛上,然后淘汰至最后一人「吃鸡」。作者之前比较喜欢《堡垒之夜》的游戏风格,但现在更喜欢《绝地求生》的写实画面。于是他不禁开始思考,是否有可能创建一个图形模式,让我们选择喜欢的画面风格而不必依赖于开发者给我们提供的画面选择?如果有个图形模式能够将《绝地求生》的画风渲染至《堡垒之夜》呢?于是作者决定用深度学习来探索这一模式,然后发现了一种叫 CycleGAN 的神经网络。该网络非常擅长图像风格迁移。在本文中,作者将介绍 CycleGAN 的工作原理,然后训练它们将《堡垒之夜》可视化地转为《绝地求生》。
卡通风格的《堡垒之夜》(左)和写实风格的《绝地求生》(右)
CycleGAN 是什么?
CycleGAN 是一种用于跨域图像风格迁移的生成对抗网络,它能将图像从一个域迁移到另一个域,例如从《堡垒之夜》到《绝地求生》的迁移。任务是以无监督方式执行的,即两个域的图像没有一一映射的关系。
Github 实现及其结果:https://github/junyanz/pytorch-CycleGAN-and-pix2pix
该网络能够理解原始域图像中的对象,并对目标域图像中相同对象的外观做相应的变换。该网络的算法实现经训练后,可以将马转化为斑马,将苹果转化为橙子,将照片转化为漂亮的油画等等。
如何实现?
我们简单分析一下如何使用 CycleGAN 将《堡垒之夜》和《绝地求生》分别作为输入域和目标域进行风格迁移。
首先,我们通过截屏的方式分别获得两个游戏的大量图像作为数据集。
本文来源:https://www.2haoxitong.net/k/doc/90fc5212ba4cf7ec4afe04a1b0717fd5370cb2f7.html
文档为doc格式