每日学术速递4.6

简介: 大型语言模型 (LLM)(如 GPT-3 和 ChatGPT)的成功导致开发了许多具有成本效益且易于访问的替代方案,这些替代方案是通过使用特定于任务的数据(例如,ChatDoctor)微调开放访问 LLM 创建的) 或指令数据(例如,Alpaca)。在各种微调方法中,基于适配器的参数高效微调(PEFT)无疑是最吸引人的话题之一

CV - 计算机视觉 |  ML - 机器学习 |  RL - 强化学习 | NLP 自然语言处理


Subjects: cs.CV


1.PODIA-3D: Domain Adaptation of 3D Generative Model Across Large Domain Gap Using Pose-Preserved Text-to-Image Diffusion

e0e81f4dda465a5edfa40c4726a6122a.png

标题:PODIA-3D:使用姿势保持文本到图像扩散的 3D 生成模型跨大域间隙的域自适应

作者:Gwanghyun Kim, Ji Ha Jang, Se Young Chun

文章链接:https://arxiv.org/abs/2304.01900

项目代码:https://gwang-kim.github.io/podia_3d/

b9c4f5d2377d9ff98b9748dd993e86b4.png

f6f12eb3b3d2978638dd80b42d0c36f6.png

3349e1020d3a9f9252b884252492cc6f.png

dd971c9ff07612f406107fa69044fd6d.png

摘要:

       最近,3D 生成模型取得了重大进展,但跨不同领域训练这些模型具有挑战性,需要大量训练数据和姿势分布知识。文本引导域适应方法允许生成器使用文本提示适应目标域,从而避免组装大量数据的需要。最近,DATID-3D 在文本引导域中呈现出令人印象深刻的样本质量,通过利用文本到图像的扩散来保留文本的多样性。然而,由于当前文本到图像扩散模型中存在以下问题,使 3D 生成器适应与源域存在显着域差距的域仍然具有挑战性:1) 基于扩散的翻译中的形状-姿势权衡,2) 姿势偏差,以及 3) 目标域中的实例偏差,导致生成的样本中的 3D 形状较差、文本-图像对应度低和域内多样性低。为了解决这些问题,我们提出了一种名为 PODIA-3D 的新型管道,它使用基于姿势保留的文本到图像扩散的域适应 3D 生成模型。我们构建了一个保留姿势的文本到图像扩散模型,该模型允许对显着的域变化使用极高级别的噪声。我们还提出了专门到一般的抽样策略,以改善生成样本的细节。此外,为了克服实例偏差,我们引入了一种文本引导的去偏差方法,可以提高域内多样性。因此,我们的方法成功地适应了显着域差距的 3D 生成器。我们的定性结果和用户研究表明,我们的方法在文本-图像对应、真实感、渲染图像的多样性以及生成样本中 3D 形状的深度感方面优于现有的 3D 文本引导域自适应方法

2.Self-Refine: Iterative Refinement with Self-Feedback

0fd768cd571fdac24ba5e96b20966aca.png

标题:自我完善:通过自我反馈进行迭代完善

作者:Aman Madaan, Niket Tandon, Prakhar Gupta, Skyler Hallinan, Luyu Gao, Sarah Wiegreffe,

文章链接:https://arxiv.org/abs/2303.17651

项目代码:https://selfrefine.info/

21260615368824f8a9e9a8e5919b8296.png

df05dfcb7d3e58d00d080ae8df9e9ee1.png

99d00ad886dc22f1899c5d8f45e76819.png

8f1b26b4f41247eb32c5f7deabc92c6d.png

摘要:

       与人一样,LLM 并不总是在第一次尝试时就为给定的生成问题生成最佳文本(例如,摘要、答案、解释)。正如人们随后改进他们的文本一样,我们引入了 SELF-REFINE,这是一个通过迭代反馈和改进类似地改进 LLM 初始输出的框架。主要思想是使用 LLM 生成输出,然后允许同一模型为其自身的输出提供多方面的反馈;最后,同一模型根据自己的反馈改进其先前生成的输出。与早期的工作不同,我们的迭代优化框架不需要监督训练数据或强化学习,并且适用于单个 LLM。我们试验了 7 项不同的任务,从评论重写到数学推理,证明我们的方法优于直接生成。在所有任务中,使用 SELF-REFINE 生成的输出比直接使用 GPT-3.5 和 GPT-4 生成的输出更受人类和自动化指标的青睐,跨任务平均绝对提高 20%。

4e376bb4b5aa876b5f4b0eb74d37bd19.png

标题:LLM-Adapters:用于大型语言模型参数高效微调的适配器系列

作者:Zhiqiang Hu, Yihuai Lan, Lei Wang, Wanyu Xu, Ee-Peng Lim, Roy Ka-Wei Lee, Lidong Bing, Soujanya Poria

文章链接:https://arxiv.org/abs/2304.01933

项目代码:https://github.com/AGI-Edgerunners/LLM-Adapters

7b9041600d442a67d6d53ccaa9217027.png

7854041921b06f64e2b0cced892fc75a.png

摘要:

       大型语言模型 (LLM)(如 GPT-3 和 ChatGPT)的成功导致开发了许多具有成本效益且易于访问的替代方案,这些替代方案是通过使用特定于任务的数据(例如,ChatDoctor)微调开放访问 LLM 创建的) 或指令数据(例如,Alpaca)。在各种微调方法中,基于适配器的参数高效微调(PEFT)无疑是最吸引人的话题之一,因为它只需要微调几个外部参数而不是整个LLM,同时达到可比甚至什至更好的性能。为了进一步研究 LLM 的 PEFT 方法,本文提出了 LLM-Adapters,这是一个易于使用的框架,它将各种适配器集成到 LLM 中,并可以针对不同的任务执行这些基于适配器的 LLM PEFT 方法。该框架包括最先进的开放访问 LLM,如 LLaMA、BLOOM、OPT 和 GPT-J,以及广泛使用的适配器,如串行适配器、并行适配器和 LoRA。该框架旨在研究友好、高效、模块化和可扩展,允许集成新的适配器并使用新的和更大规模的 LLM 对其进行评估。此外,为了评估 LLMs-Adapter 中适配器的有效性,我们对六个数学推理数据集进行了实验。结果表明,在具有少量额外可训练参数的较小规模 LLM (7B) 中使用基于适配器的 PEFT 产生的性能与强大的 LLM (175B) 相当,在某些情况下优于简单数学推理数据集的零样本推理.总的来说,我们提供了一个有前途的框架,用于在下游任务上微调大型 LLM。 我们相信拟议的 LLMs-Adapters 将推进基于适配器的 PEFT 研究,促进研究管道的部署,并使实际应用程序能够应用于现实世界的系统。

目录
相关文章
|
开发框架 前端开发 .NET
C#编程与Web开发
【4月更文挑战第21天】本文探讨了C#在Web开发中的应用,包括使用ASP.NET框架、MVC模式、Web API和Entity Framework。C#作为.NET框架的主要语言,结合这些工具,能创建动态、高效的Web应用。实际案例涉及企业级应用、电子商务和社交媒体平台。尽管面临竞争和挑战,但C#在Web开发领域的前景将持续拓展。
524 3
|
分布式计算 Hadoop Scala
阿里云一键部署 Spark 分布式集群
Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,可以完成各种各样的运算,包括 SQL 查询、文本处理、机器学习等。通过ROS大家可以在阿里云上一键部署Spark集群。
14121 0
|
11月前
|
算法 Java 数据库
理解CAS算法原理
CAS(Compare and Swap,比较并交换)是一种无锁算法,用于实现多线程环境下的原子操作。它通过比较内存中的值与预期值是否相同来决定是否进行更新。JDK 5引入了基于CAS的乐观锁机制,替代了传统的synchronized独占锁,提升了并发性能。然而,CAS存在ABA问题、循环时间长开销大和只能保证单个共享变量原子性等缺点。为解决这些问题,可以使用版本号机制、合并多个变量或引入pause指令优化CPU执行效率。CAS广泛应用于JDK的原子类中,如AtomicInteger.incrementAndGet(),利用底层Unsafe库实现高效的无锁自增操作。
468 0
理解CAS算法原理
|
XML JavaScript 前端开发
JavaScript中的DOM解析器DOMParser api的讲解
`DOMParser`能将XML或HTML源码字符串解析成DOM `Document`。通过`new DOMParser()`创建实例,使用`.parseFromString(string, type)`方法进行解析,其中`string`为待解析的字符串,`type`指定解析类型如`text/html`或`text/xml`等,返回一个`Document`对象。例如,可解析包含`<p>666</p>`的字符串并获取其文本内容`666`。
648 1
|
JavaScript 前端开发 开发者
决战前端之巅!Element UI与Vuetify谁才是Vue.js组件界的霸主?一场关于颜值与实力的较量!
【8月更文挑战第30天】本文对比了两款热门的Vue.js组件库——Element UI与Vuetify。Element UI由饿了么团队打造,提供多种高质量UI组件,设计简洁大方。Vuetify基于Material Design规范,支持Vue.js 2.0及3.0版本,具备前瞻性。两者均涵盖表单、导航、数据展示等组件,Element UI配置选项丰富,而Vuetify则提供了更深层的样式定制功能。开发者可根据项目需求及个人偏好选择合适的组件库。
1198 0
|
Java 数据库连接 数据库
解决docker中运行的jar包连不上数据库
解决docker中运行的jar包连不上数据库
|
缓存 负载均衡 算法
Nginx实现负载均衡(整合SpringBoot小demo)
Nginx实现负载均衡(整合SpringBoot小demo)
602 4
Nginx实现负载均衡(整合SpringBoot小demo)
|
移动开发 前端开发 JavaScript
前端编码规范
前端编码规范
1383 0
|
存储 Kubernetes 安全
阿里云数字新基建系列——混合云架构(第1章-2)
对混合云来说, 最重要和最实用的是架构, 本书主要通过三部分来介绍,使用混合云架构, 第一部分主要介绍新基建的大背景对企业的影响, 以及企业如何采用混合云架构搭上新基建快车 , 第二部分阐述混合云的定义, 特点, 分类及相关应用场景, 第三部分着重介绍各种实用的混合云架构, 以及通过典型的最佳实践来搭建自己的混合云架构。
阿里云数字新基建系列——混合云架构(第1章-2)
|
运维 Cloud Native 测试技术
《必致(BizDevOps)白皮书2022》——03必致(BizDevOps)实践体系——3.3 工程和技术领域的实践
《必致(BizDevOps)白皮书2022》——03必致(BizDevOps)实践体系——3.3 工程和技术领域的实践
609 0