Dramatron似乎在一定程度上克服了AI大模型写长剧本前后不连贯的问题。
你是否有过这种体验:某一天逛街的时候,脑子里突然冒出来一个好玩的故事,但你一时想不到更多的细节,也没有一块完整的时间去把它写出来?
DeepMind 新出的一款剧本写作 AI——Dramatron 或许可以帮到你。
Dramatron 是一个所谓的「联合写作」工具,你给它一句话(log line)描述中心戏剧冲突(比如 James 在有 Sam 鬼魂出没的后院发现了一口井),它就能自动写出标题、角色、场景描述和对话。
可以说,Dramatron 和 ChatGPT 很像,但它的输出更容易被改写成电影脚本。为了评估 Dramatron 的可用性,DeepMind 邀请 15 位剧作家和编剧参加了长达两小时的用户学习课程,旨在让他们与 Dramatron 一起编写剧本。其中一位剧作家与 Dramatron 合作编写了 4 个经过大量编辑和重写的剧本。加拿大 TheatreSports 公司已经改编了 Dramatron 参与创作的剧本并将其搬上了舞台,收到了非常积极的评价。
据报道,剧作家们表示,他们不会使用这个工具来创作一部完整的戏剧,并发现人工智能的输出可能是公式化的。然而,他们认为 Dramatron 将有助于世界的构建,或者帮助他们探索改变情节元素或角色的其他方法。同时,人工智能也有助于他们「产生更具创意的想法」。
和很多生成式 AI 工具一样,Dramatron 的背后也有一个大型语言模型作为支撑。这个模型名为 Chinchilla,参数量为 70B,在 1.4T token 的 MassiveText 数据集上进行训练。不过,DeepMind 在论文中表示,OpenAI 的 GPT-3 等大模型也可以用来部署 Dramatron。
有趣的是,在 Dramatron 昙花一现的试用页面上,DeepMind 明确表示,要使用 Dramatron,你需要一个 OpenAI API key。
看到这儿,OpenAI 联合创始人Wojciech Zaremba发来了贺电。
不过,这个试用界面很快就关闭了,我们现在只能看到关于 Dramatron 的论文和简介。
Dramatron 详解
Dramatron 是一个使用大型语言模型通过「分层故事生成( hierarchical story generation)」方法分层生成脚本和剧本的系统。Dramatron 利用大型语言模型的优势,将精心设计的 prompt(见附录 E)和具有结构化生成能力的 prompt chaining 相结合,以实现整个脚本的长程一致性。这一过程比「扁平的」序列文本生成更具有故事连贯性。
从本质上讲,本文中的方法类似于分层神经故事生成,但生成的脚本远远超过 1000 个单词。故事的分层生成可以根据用户提供的核心戏剧冲突摘要(也称日志行(log line))生成整个剧本(有时是数万字)。从输入日志行开始,Dramatron 可以生成一个完整的剧本,包括标题、角色列表、情节(即带有设置和节奏的场景摘要列表)、位置描述和对话(见图 1)。用户可以在分层生成的任何阶段进行干预。通过这种方式,人类可以和 AI 在交互过程中共同编写脚本。这个方法适用于任何可以将 prompt 作为输入,然后预测下一个 token 的大型语言模型。
下图 2 展示了 Dramatron 在研究中用到的两种叙事结构:
- 左图是德国小说家、剧作家古斯塔夫 · 弗赖塔格(Gustav Freytag)的金字塔结构。他认为典型剧情由上升 (rising action)、高潮 (climax) 和回落 (falling action) 组成。
- 右图是叙事学和比较神话学中的一种公式——英雄旅程(Hero's journey),又称为单一神话(monomyth),主轴围绕在一个踏上冒险旅程的英雄,这个人物会在一个决定性的危机中赢得胜利,然后得到升华转变或带着战利品归返到原来的世界。
Dramatron 使用几个硬编码的 prompt(即 input prefix)来指导大型语言模型。Prompt engineering 是用户控制或影响大型语言模型的常用方法。如下图 3 所示,prompt 与用户提供的之前大型语言模型生成的输入和 / 或输出相连接,这种方法被称为 prompt chaining,是一种算法 prompting。如上图 1 所示,在整体结构的较低层次,prompt 与来自整体结构更高层次的输出链接在一起。
更多细节请参见原论文。
论文链接:https://arxiv.org/pdf/2209.14958.pdf