本周论文包括OpenAI 文本生成图像新模型 GLIDE 用 35 亿参数媲美 DALL-E;黑客帝国「缸中之脑」有眉目了?培养皿中百万人脑细胞学会打乒乓球,仅用了 5 分钟。
目录:
GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models
Plenoxels: Radiance Fields without Neural Networks
BEVDet: High-performance Multi-camera 3D Object Detection in Bird-Eye-View
Quantifying the Effect of Public Activity Intervention Policies on COVID-19 Pandemic Containment Using Epidemiologic Data From 145 Countries
Boosting the Transferability of Video Adversarial Examples via Temporal Translation
In Vitro Neurons Learn and Exhibit Sentience when Embodied in a Simulated Game-world
Learning to Compose Visual Relations
ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)
论文 1:GLIDE: Towards Photorealistic Image Generation and Editing with Text-Guided Diffusion Models
作者:Alex Nichol、Prafulla Dhariwal、Aditya Ramesh 等
论文地址:https://arxiv.org/pdf/2112.10741.pdf
摘要:从年初 OpenAI 刷屏社区的 DALL-E 到英伟达生成逼真摄影的 GauGAN2,文本生成图像可谓是今年大火的一个研究方向。现在 OpenAI 又有了新的进展——35 亿参数的新模型 GLIDE。除了从文本生成图像,GLIDE 还有图像编辑功能——使用文本 prompt 修改现有图像,在必要时插入新对象、阴影和反射。GLIDE 的零样本生成和修复复杂场景的能力也很强。GLIDE 还能够将草图转换为逼真的图像编辑。
上述功能是怎样实现的呢?在新模型 GLIDE 中,OpenAI 将指导扩散(guided diffusion)应用于文本生成图像的问题。首先该研究训练了一个 35 亿参数的扩散模型,使用文本编码器以自然语言描述为条件,然后比较了两种指导扩散模型至文本 prompt 的方法:CLIP 指导和无分类器指导。通过人工和自动评估,该研究发现无分类器指导能够产生更高质量的图像。
在草坪上添加斑马
一只戴着领结和生日帽的柯基犬从涂鸦草图转换成了逼真的图像。
推荐:缩小规模,OpenAI 文本生成图像新模型 GLIDE 用 35 亿参数媲美 DALL-E
论文 2:Plenoxels: Radiance Fields without Neural Networks
作者:Alex Yu、Sara Fridovich-Keil、Matthew Tancik 等
论文地址:https://arxiv.org/pdf/2112.05131.pdf
摘要:在本文中,来自加州大学伯克利分校的研究者瞄准了这一问题,提出了一种名为 Plenoxels 的新方法。这项新研究表明,即使没有神经网络,从头训练一个辐射场(radiance field)也能达到 NeRF 的生成质量,而且优化速度提升了两个数量级。
他们提供了一个定制的 CUDA 实现,利用模型的简单性来达到可观的加速。在有界场景中,Plenoxels 在单个 Titan RTX GPU 上的典型优化时间是 11 分钟,NeRF 大约是一天,前者实现了 100 多倍的加速;在无界场景中,Plenoxels 的优化时间大约为 27 分钟,NeRF++ 大约是四天,前者实现了 200 多倍的加速。虽然 Plenoxels 的实现没有针对快速渲染进行优化,但它能以 15 帧 / 秒的交互速率渲染新视点。如果想要更快的渲染速度,优化后的 Plenoxel 模型可以被转换为 PlenOctree。
Plenoxel 概览。
效果展示。
推荐:神经辐射场去掉「神经」,训练速度提升 100 多倍,3D 效果质量不减
论文 3:BEVDet: High-performance Multi-camera 3D Object Detection in Bird-Eye-View
作者:Junjie Huang、Guan Huang、Zheng Zhu 等
论文地址:https://arxiv.org/abs/2112.11790
摘要:日前,在自动驾驶权威评测集 nuScenes 上,鉴智机器人凭借提出的纯视觉自动驾驶 3D 感知新范式 BEVDet,以绝对优势获得纯视觉 3D 目标检测世界第一的成绩。BEVDet 是首个公开的同时兼具高性能、扩展性和实用性的 BEV 空间 3D 感知范式,以 BEVDet 为核心的系列技术将有希望解决视觉为主自动驾驶解决方案中视觉雷达、4D 感知、实时局部地图等关键问题,未来将应用于鉴智机器人以视觉雷达为核心的高级别自动驾驶等产品和解决方案中,为自动驾驶的大规模量产发挥关键的作用。
鉴智机器人提出了下一代纯视觉自动驾驶 3D 目标检测框架 BEVDet。BEVDet 遵循模块化设计的理念,包含以下四个分工明确的模块:图像编码模块用于在二维图像空间提取高纬度的特征;视角变换模块用于把图像空间的特征转换到鸟瞰视角空间(Bird-Eye-View, BEV)的特征;鸟瞰视角的编码模块用于在鸟瞰视角下进一步提取特征;以及一个三维目标预测模块(Head)用于在鸟瞰视角空间对三维目标的定位、尺度、朝向、速度和类别的预测。BEVDet 通过上述的四个模块简洁的解决纯视觉自动驾驶 3D 目标检测的问题。
BEVDet 整体框架
BEVDet 在纯视觉 3D 目标检测公开测试集上同时具备高性能和低算力要求的特点