本周重要论文包括当预训练不需要注意力时,扩展到 4096 个 token 也不成问题;被 GPT 带飞的 In-Context Learning 背后是模型在秘密执行梯度下降。
目录:
ClimateNeRF: Physically-based Neural Rendering for Extreme Climate Synthesis
Pretraining Without Attention
One Model to Edit Them All: Free-Form Text-Driven Image Manipulation with Semantic Modulations
SELF-INSTRUCT: Aligning Language Model with Self Generated Instructions
Ab Initio Calculation of Real Solids via Neural Network Ansatz
Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers
Experimental Indications of Non-classical Brain Functions
ArXiv Weekly Radiostation:NLP、CV、ML 更多精选论文(附音频)
论文 1:ClimateNeRF: Physically-based Neural Rendering for Extreme Climate Synthesis
作者:Yuan Li等
论文地址:https://arxiv.org/pdf/2211.13226.pdf
摘要:本文介绍了一种将物理模拟与场景 NeRF 模型相融合的全新方法,生成这些场景中物理现象的逼真影片。就具体效果而言,该方法能够逼真地模拟出气候变化可能产生的影响 —— 在一场小范围的洪水爆发后,操场会变成什么样子?大洪水后呢?暴雪后呢?
推荐:一秒起雾、入冬、发洪水,新 NeRF 模型渲染出逼真物理大片。
论文 2:Pretraining Without Attention
作者:Junxiong Wang 等
论文地址:https://arxiv.org/pdf/2212.10544.pdf
摘要:本文提出了双向门控 SSM(BiGS)模型,结合基于状态空间模型(SSM)的 Routing 层和基于乘法门的模型架构,在不使用注意力的情况下能够复制 BERT 预训练结果,并可扩展到 4096 个 token 的长程预训练,不需要近似。
推荐:预训练无需注意力,扩展到 4096 个 token 不成问题,与 BERT 相当。
论文 3:One Model to Edit Them All: Free-Form Text-Driven Image Manipulation with Semantic Modulations
作者:Yiming Zhu 等
论文地址:https://arxiv.org/pdf/2210.07883.pdf
摘要:最近用文本来引导图像编辑取得了非常大的进展以及关注度,特别是基于去噪扩散模型如 StableDiffusion 或者 DALLE 等。但基于 GAN 的文本 - 图像编辑依旧有一些问题等待解决,例如经典的 StyleCILP 中针对每一个文本必须要训练一个模型,这种单文本对单模型的方式在实际应用中是不方便的。
本文提出 FFCLIP 并解决了这个问题,针对灵活的不同文本输入,FFCLIP 只需要一个模型就能够对图片进行相应的编辑,无需针对每个文本重新训练模型,并且在多个数据集上都取得了非常不错的效果。本文已被 NeurIPS 2022 接收。
推荐:文本图片编辑新范式,单个模型实现多文本引导图像编辑。
论文 4:SELF-INSTRUCT: Aligning Language Model with Self Generated Instructions
作者:Yizhong Wang 等
论文地址:https://arxiv.org/pdf/2212.10560v1.pdf
摘要:华盛顿大学等机构近期联合发表了一篇论文,提出的新框架 SELF-INSTRUCT 通过引导模型自己的生成过程,提高了预训练语言模型的指令遵循能力。SELF-INSTRUCT 是一种半自动化过程,使用来自模型本身的指令信号对预训练的 LM 进行指令调整。
推荐:无需人工标注,自生成指令框架打破 ChatGPT 等 LLM 的成本瓶颈。
论文 5:Ab Initio Calculation of Real Solids via Neural Network Ansatz
作者:Xiang Li 等
论文地址:https://www.nature.com/articles/s41467-022-35627-1
摘要:机器学习能够处理海量数据,解决复杂场景下的科学难题,带领科学探索抵达过去无法触及的新领域。比如 DeepMind 用人工智能软件 AlphaFold 对科学界已知的几乎所有蛋白质结构进行了高度准确的预测;Christian Lagemann 提出的基于深度学习的粒子图像测速 (PIV) 方法一改原本的纯手动设置参数,大大提升模型的应用范围,对汽车、航空航天和生物医学工程等多个领域的研究具有至关重要的意义。
最近,字节跳动 AI Lab Research 团队和北京大学物理学院陈基课题组的工作《 Ab initio calculation of real solids via neural network ansatz》 给出了研究凝聚态物理的新思路,该工作提出了业内首个适用于固体系统的神经网络波函数,实现了固体的第一性原理计算,并将计算结果推向了热力学极限。其有力地证明了神经网络是研究固体物理的高效工具,也预示着深度学习技术将在凝聚态物理中发挥越来越重要的作用。相关研究成果于 2022 年 12 月 22 日发表于国际顶级刊物 Nature Communication 杂志上。
推荐:业界首个适用于固体系统的神经网络波函数,登上 Nature 子刊。
论文 6:Why Can GPT Learn In-Context? Language Models Secretly Perform Gradient Descent as Meta-Optimizers
作者:Damai Dai 等
论文地址:https://arxiv.org/pdf/2212.10559v2.pdf
摘要:In-Context Learning(ICL)在大型预训练语言模型上取得了巨大的成功,但其工作机制仍然是一个悬而未决的问题。本文中,来自北大、清华、微软的研究者将 ICL 理解为一种隐式微调,并提供了经验性证据来证明 ICL 和显式微调在多个层面上表现相似。
推荐:被 GPT 带飞的 In-Context Learning 为什么起作用?模型在秘密执行梯度下降。
论文 7:Experimental Indications of Non-classical Brain Functions
作者:Christian Matthias Kerskens 等
论文地址:https://iopscience.iop.org/article/10.1088/2399-6528/ac94be
摘要:几十年来,科学家们一直在探索人脑的计算和思考机制。但人脑的构成太过复杂,包含几百亿个神经元,相当于上万亿块芯片,我们很难一探究竟。因对黑洞的研究贡献而获得诺贝尔物理学奖的罗杰・彭罗斯曾大胆地提出「量子意识」观点,即人脑本身就是量子结构,或者说是量子计算机。但这一观点一直备受质疑。
近期都柏林圣三一大学的一项研究表明我们的大脑执行的是量子计算,该研究认为人脑中存在与意识相关的大脑功能介导的纠缠。如果这些大脑功能必须以非经典的方式运作,那么这意味着意识是非经典的,即大脑的认知过程涉及量子计算。
推荐:大脑的思考是量子计算,这一猜测有了新证据。