- 论文题目:RL-GAN-Net: A Reinforcement Learning Agent Controlled GAN Network for Real-Time Point Cloud Shape Completion
所解决的问题
用强化学习控制GAN
网络,以使得GAN
更快,更鲁棒。将其用于点云数据生成。全网第一次用RL
控制GAN
。通过数据驱动的方法填补三维数据中的数据缺失。
所采用的方法?
预训练阶段,训练一个自编码器,用于生成隐空间的表示,之后用这个去训练GAN
网络。强化学习智能体用于选择合适的z zz向量,去合成隐空间的表示。与之前的反向传播发现z zz向量不同,本文采用RL
的方法进行选择。
主要由三个模块组成:1. 自编码器;2. l ll-GAN;3. 强化学习智能体(RL
)。
自编码器
自编码器用的损失函数如下:
其中P1和P2代表点云的输入和输出。
l ll-GAN
结合GFV
来训练GAN
。
- Chamfer loss:
- Discriminator loss 判别器损失函数:
强化学习
强化学习用于快速选择GAN
生成器的输入z zz:
奖励函数定义为:
取得的效果?
参考资料
相似文献:
- Panos Achlioptas, Olga Diamanti, Ioannis Mitliagkas, and Leonidas J. Guibas. Representation learning and adversarial generation of 3d point clouds. CoRR, abs/1707.02392, 2017. (有提到用隐空间数据训练GAN会更稳定)。
相关GitHub
链接: