田渊栋团队发布「长故事生成器」第二版DOC:连贯性大幅提升,趣味性提升20.7%!

简介: 田渊栋团队发布「长故事生成器」第二版DOC:连贯性大幅提升,趣味性提升20.7%!




 新智元报道  

编辑:LRS

【新智元导读】首发长故事生成器Re3两个月后,田渊栋团队再次更新第二版DOC,连贯性、一致性再次大幅提升!

新智元

,赞47

前段时间田渊栋博士团队在EMNLP2022上发布了一个基于大规模语言模型的故事生成器Re3(Recursive Reprompting and Revision)框架,通过设计prompt让模型生成一致性强的故事,完全不需要微调大模型,最长可以生成7500词的故事。

 

最近Re3的作者团队又发布了第二版长故事生成框架DOC(Detailed Outline Control),使用层次化的大纲(outline)对故事进行更细节的描绘,并使用微调后的OPT-350m模型对生成的内容进行更连贯的续写,相比之下,人类评估后认为DOC比上一代Re3的写作能力更强。

 

论文链接:https://arxiv.org/abs/2212.10077

论文链接:https://github.com/yangkevin2/doc-story-generation

 

DOC由两个互补的组件组成:

 

1. 详细大纲生成器(detailed outliner)可以创建一个更详细的、分层结构的大纲,将创造性的工作从主起草(drafting)过程转移到规(planning)划阶段;

 

2. 详细的控制器(detailed controller)通过控制故事段落与大纲细节保持一致,确保更详细的大纲在生成过程中仍然能够发挥作用。

 

在自动生成故事的人类评估中,DOC 在情节一致性上取得22.5%的绝对增益,大纲相关性提升28.2%,趣味性提升20.7%,大大优于先前的 Re3基线模型,并且人类评估者还认为DOC在交互式生成环境中更容易控制。

 

文章的第一作者Kevin Yang是加州大学伯克利分校的四年级博士生,主要研究兴趣为结构化设置下的可控自然语言文本生成,如利用可控生成的结构化方法来改善长篇文本的一致性。

 

 

第二作者田渊栋博士是Meta人工智能研究院研究员、高级经理,其研究方向为深度增强学习及其在游戏中的应用,以及深度学习模型的理论分析。先后于2005年及2008年获得上海交通大学本硕学位,2013年获得美国卡耐基梅隆大学机器人研究所博士学位。

 

 

DOC框架

 

随着自然语言技术的不断发展,大规模语言模型对于短文本的理解逐渐接近瓶颈,人们对生成更长的文本逐渐产生兴趣,比如一次生成数千个单词。

 

与短文本生成任务相比,长文本包含的内容和限制也更多,模型需要保持总体一致性,长期事实一致性,还要保持与用户输出的前提或计划保持相关性。

 

与人类相比,像Re3这样的故事生成系统在许多方面仍然存在不足,例如无法保证长距离下的剧情连贯性,全局不一致,故事内容偏离设定的计划等。

 

为了弥补这一差距,详细大纲控制(DOC)框架在重复使用Re3的高层次规划起草修订(panning-drafting-revision)结构的同时,通过两种互补的方法提高了长期一致性。

 

 

详细大纲

 

首先,detailed outliner将一个简短的初始大纲细化为一个更详细、层次化的大纲,这样设计的原因是人类作者可能在起草一份长文档之前迭代地细化和扩展一个简短的初始大纲。

 

与即兴创作新的情节点相比,作者可能会在高层次大纲阶段计划一个连贯的总体情节,使用扩展的大纲在起草过程中提供更详细的指导。

 

 

在起草阶段,研究人员重用了Re3重写阶段的大纲相关性和文本连贯性重排序,以检测当前大纲项目何时完成了一段文章,并基于分数阈值实现提前停止。

 

大纲中有完整的设置和相关的角色,每个大纲项目都经过仔细筛选,以确保上下文中的相关性和连贯性。

 

在结构化prompt中,模型会突出显示当前设置、设置中的更改,还会根据大纲中检测到的角色检索角色描述。

 

 

相比之下,Re3在起草过程中为每一段动态选择相关角色,并且不跟踪设置信息,这可能会导致故事设置发生意外变化

 

详细控制器

 

第二个组件详细控制器(detailed controller)通过基于相应的大纲项目控制段落生成来保持对详细大纲的忠实性。

 

因为详细大纲强加了许多重叠的软约束,所以详细控制器必须施加足够的控制强度,同时详细控制器还必须适应灵活的自然语言输入,并在使用最先进的大型语言模型生成时具有计算效率。

 

所以研究人员将详细控制器实现为基于OPT350m的控制器,设计了一个对比训练程序,将摘要与段落前缀对齐。

 

 

最关键的是,研究人员还构建了许多流畅的硬负例(fluent hard negatives),以促进生成的段落不仅在开始时与主题相关,而且贯穿始终。

 

实验部分

 

在实验中,模型的输入只是一个简短的英语前提(premise),通常30-60个单词,输出是一个完整的故事。

 

研究人员没有施加更多规则上的约束,因为「故事」的定义还不明确,更不用说定义「好故事」了,质量好坏主要依赖人工评估指标。

 

在评价上主要使用三个指标,更适用于比较段落而非完整的故事:

 

1. 连贯性,人类标注员判断情节连贯的段落百分比;

 

2. 相关性,被判断为符合相应大纲条目的段落百分比;

 

3. 趣味性,被认为有趣的段落百分比。

 

对比的基线模型包括Re3, ROLLING-OPT和ROLLING-GPT。

 

 

在实验结果可以看到,与Re3相比,标注人员认为DOC生成的情节更加连贯,与大纲更加相关,相比ROLLING基线提升更高。

 

并且结果证实了模型设计的正确性,即剧情连贯性和大纲相关性得益于将创意工作从规划转向起草,以及改进的控制机制。

 

而且令人意外的是,标注人员还认为DOC的段落明显更有趣,研究人员认为这是更详细(更具事件性)大纲带来的进步,进一步的消融实验也支持了这一假设。

 

不过定性分析也揭示了该模型仍然有进一步改进的巨大空间。

 

与RE3不同的是,DOC通常不会严重偏离顶层大纲,而RE3有时几乎完全偏离主题,但DOC通常无法遵循详细大纲的较低层次部分。

 

DOC和RE3中的内部一致性仍然存在问题,详细大纲中偶尔出现的错误可能会造成特别大的负面影响,从而在起草过程中导致更大的级联错误。

 

此外,DOC中的大纲往往在细节层次上不一致,有些过于模糊,而另一些似乎过于展开(over-expanded)。

 

 

此外,模型检测到的设置和角色有时也会不正确或不完整,下面的例子显示了DOC根据上述大纲编写的一篇删节严重的故事。

 

参考资料:https://arxiv.org/abs/2212.10077

相关文章
|
21天前
|
测试技术
LLM数学性能暴涨168%,微软14人团队力作!合成数据2.0秘诀曝光,智能体生成教学
【9月更文挑战第14天】微软研究团队发布了一篇介绍新型框架"AgentInstruct"的论文,该框架旨在通过自动生成高质量合成数据,推动语言模型发展。AgentInstruct仅需原始数据源即可创建多样化的合成数据,减少人工工作量。研究团队基于此框架构建了含2500万训练对的数据集,展示了其在多种技能教学中的潜力。经微调后的Mistral-7b模型演进为Orca-3,在多个基准测试中显著超越同类模型。尽管如此,AgentInstruct仍面临创建流程耗时及合成数据复杂性不足等问题。论文详情见:https://arxiv.org/pdf/2407.03502
32 2
|
2月前
|
机器学习/深度学习 人工智能 算法
【悬念揭秘】ML.NET:那片未被探索的机器学习宝藏,如何让普通开发者一夜变身AI高手?——从零开始,揭秘构建智能应用的神秘旅程!
【8月更文挑战第28天】ML.NET 是微软推出的一款开源机器学习框架,专为希望在本地应用中嵌入智能功能的 .NET 开发者设计。无需深厚的数据科学背景,即可实现预测分析、推荐系统和图像识别等功能。它支持多种数据源,提供丰富的预处理工具和多样化的机器学习算法,简化了数据处理和模型训练流程。
37 1
|
2月前
|
SQL IDE JavaScript
"揭秘高效代码Review秘籍:如何像侦探一样挖掘隐藏错误,提升团队编程实力,你不可错过的实战指南!"
【8月更文挑战第20天】代码Review是软件开发中提升代码质量与团队协作的关键环节。本文详细介绍高效代码Review流程:从明确范围与标准开始,到逐行审查与工具辅助,再到积极沟通与闭环管理,辅以示例确保清晰易懂。通过实践这些步骤,不仅能减少错误,还能促进知识共享,为构建高质量软件打下坚实基础。
34 2
|
5月前
|
人工智能 Rust Apache
社区供稿 | 更长、更强、更开放,零一万物 Yi-1.5 系列开源模型发布一周广受好评
5 月 13 日,零一万物 Yi 系列开源模型全新升级为 Yi-1.5。相较于去年 11 月的开源版本,这次的 Yi-1.5 在保持原 Yi 系列模型优秀的通用语言能力的前提下,通过增量训练 500B 高质量 token,大幅提高了数学逻辑、代码能力。
|
5月前
|
编解码 人工智能 自然语言处理
贾佳亚团队新模型对标ChatGPT+DALL-E 3王炸组合!
【4月更文挑战第15天】贾佳亚团队推出Mini-Gemini模型,旨在缩小与GPT-4和Gemini的性能差距。该模型采用双视觉编码器处理高分辨率图像,提升视觉对话和推理准确性。搭配高质量数据集,增强图像理解和推理能力。Mini-Gemini在零样本基准测试中表现出色,尤其在高分辨率图像处理上。不过,模型在复杂视觉推理和计数能力上仍有改进空间。
32 1
贾佳亚团队新模型对标ChatGPT+DALL-E 3王炸组合!
|
5月前
|
机器学习/深度学习 人工智能 算法
谷歌发布全新时间感知框架,对抗概念飘逸难题
【2月更文挑战第13天】谷歌发布全新时间感知框架,对抗概念飘逸难题
48 3
谷歌发布全新时间感知框架,对抗概念飘逸难题
|
设计模式 人工智能 自然语言处理
用了这款函数AI生成器,领导都夸我代码写得好!
最近,有小伙伴向我推荐了一款函数AI生成器,说是因为用了它生成的代码被领导夸了,感慨科技的力量,让我一定要试试。本着试用的原则,实际感受了一波,简直太好用了~
|
5月前
|
人工智能 搜索推荐 安全
ChatGPT 盈利指南:第八章到第十章
ChatGPT 盈利指南:第八章到第十章
545 0
|
编解码 自然语言处理 算法
无需任何3D数据,直接文本生成高质量3D内容,清华朱军团队带来重大进展
无需任何3D数据,直接文本生成高质量3D内容,清华朱军团队带来重大进展
237 0
无需任何3D数据,直接文本生成高质量3D内容,清华朱军团队带来重大进展
|
人工智能 自然语言处理 前端开发
GPT-4 炸裂成那样,前端真的还有机会吗?我是这么看的~
GPT-4 炸裂成那样,前端真的还有机会吗?我是这么看的~
下一篇
无影云桌面