谷歌推出AI写作助手Wordcraft,仅需少量样本学习和对话就能对文章进行续写改写(上)

简介: 写故事没灵感?有AI啊!谷歌提出文本编辑器Wordcraft,内置人工智能,使用少量样本学习和对话就能支持各种用户交互,还可以帮助用户进行故事规划、写作和编辑,再也不用担心被催更啦!

2016年有一场人机写稿竞赛:就一份财报写出一篇新闻稿。

 

对手分别是自然语言生成公司Automated Insights打造的WordSmith机器人和美国公共广播记者Scott Horsley。

 

最后比赛结果是,机器人写稿速度比人类快了一倍多。

 

当然,对比两篇新闻稿,Scott写的那篇语言更加生动细致,更富有情感。

50.jpg


基于原稿的翻译

 

可见,早在几年前,经过训练的人工智能就已经能够根据人们的需求生成各种文章。

 

而现在,要创作日更几千字的网文不在话下。

 

「地表最强语言模型」GPT-3,每天都能创作45亿个字符。

 

51.jpg然而,这类语言模型大多数只能为用户提供有限的交互支持。

 

此外,如果为每一个功能都单独训练语言模型,成本又太高。

 

为解决上述问题,谷歌研究院的一个团队提出了Wordcraft文本编辑器,是一个由AI驱动的创意写作助手。


52.jpg

Wordcraft仅需少量样本学习和对话,就能提供各种用户交互,支持各种故事写作任务,还可以帮助作家规划故事大纲、写作和编辑。

 

比如上学时最让人头大的文章续写和改写。

53.jpg

此外,团队还探讨了Wordcraft的独特优势:使用对话模型而非通用语言模型。

 

故事写作这个环境能够探索语言模型的能力和局限性,因为模型非预期的输出就是一种创造。

 

从人机交互的角度来看,Wordcraft可以学习人们与语言模型互动的方式、了解人们对模型的要求、模型能够产出什么,以及如何反馈到人们最终的创造中。

 

研究团队还计划将人类反馈纳入循环训练中,收集动态数据集,用于后续的训练和评估。

 

谷歌AI码字助手

 

谷歌的研究人员构建了一个AI助手,可以在创作的不同阶段为用户提供自然语言生成支持。

 

  • 规划:勾勒故事的大纲
  • 写作:创作故事的内容
  • 编辑:改写现有的文字

 

搭载了AI助手的文本编辑器外观看起来十分的简单,左侧是空白的写作区域,右侧是引导AI的操作按钮以及AI生成的文本。

 

根据用户需求的不同,编辑器会给出不同的交互选项。

54.gif

一问一答,轻松搞定


作者对Meena和GPLM两种语言模型进行了测试,其中,Meena会将之前的对话内容为输入并预测下一个对话,而GPLM则是根据给出的前文进行续写。

 

经过实验,作者发现相比于规模相似但没有经过对话训练的通用语言模型(GPLM),Meena在这类任务中要更胜一筹。

 

于是,研究人员最终选择了Meena,并认为这种模仿故事作者和助手之间对话的形式,可以更好的帮助用户进行故事的创作。



55.jpg

对于每个任务,作者为不同的任务创作了多个阶段性的对话

 


56.jpg

用户要求重写「一把剑」,模型将故事附加到相应的对话环境中,并要求AI做出回应

 

作者发现,由于人类很熟悉对话这种形式,所以只需进行少样本学习就可以产生非常自然的输出。

 

此外,当对话模型不理解任务,或者需要更多的信息时,它会直接「说出来」:


57.jpg

「一位老人独自坐在一条黑暗的小路上。一道闪电照亮了天空。」帮我描述这位老人的情绪状态。

58.jpg

我不明白你在问什么……

这是一道快乐的闪电吗?还是乌云密布的闪电?

那人在闪电之前在做什么?他做了一些可能会刺激情绪和想法的事情吗?

 

作者认为,这样的回答可以帮助用户弄清楚如何改进他们的提示。而GPLM在遇到不清晰的提示时,则会经常产生无意义的续写。

 

不仅如此,在对话中用户可能会问:「角色应该做什么来解决冲突?」

 

在这种情况下,用户显然是在寻找一个写作伙伴,而不是一个简单地续写文本的模型。


续写


续写是语言模型执行的最基本任务。


为了帮助对话式模型更好地理解任务,作者用描述性的文字对问题进行了改进。

59.jpg


以下是我到目前为止写的故事:「一位老人独自坐在一条黑暗的小路上。」给我下一句话的续写。

 

根据上面这个输入,模型给出的建议是:

60.jpg

空气很冷,但他内心很温暖。他遇到了一块空地,空地的中间有一棵古老的柳树。

向他走去,这个人可以看到一个小小的身影,被远处的灯光照亮。

圆月闪闪发光。

相关文章
|
6天前
|
人工智能 编解码 网络架构
GenCast:谷歌DeepMind推出的AI气象预测模型
GenCast是由谷歌DeepMind推出的革命性AI气象预测模型,基于扩散模型技术,提供长达15天的全球天气预报。该模型在97.2%的预测任务中超越了全球顶尖的中期天气预报系统ENS,尤其在极端天气事件的预测上表现突出。GenCast能在8分钟内生成预报,显著提高预测效率,并且已经开源,包括代码和模型权重,支持更广泛的天气预报社区和研究。
64 14
GenCast:谷歌DeepMind推出的AI气象预测模型
|
17天前
|
人工智能 自然语言处理 前端开发
VideoChat:高效学习新神器!一键解读音视频内容,结合 AI 生成总结内容、思维导图和智能问答
VideoChat 是一款智能音视频内容解读助手,支持批量上传音视频文件并自动转录为文字。通过 AI 技术,它能快速生成内容总结、详细解读和思维导图,并提供智能对话功能,帮助用户更高效地理解和分析音视频内容。
79 6
VideoChat:高效学习新神器!一键解读音视频内容,结合 AI 生成总结内容、思维导图和智能问答
|
14天前
|
机器学习/深度学习 数据中心 芯片
【AI系统】谷歌 TPU 历史发展
本文详细介绍了谷歌TPU的发展历程及其在AI领域的应用。TPU是谷歌为加速机器学习任务设计的专用集成电路,自2016年首次推出以来,经历了多次迭代升级,包括TPU v1、v2、v3、v4及Edge TPU等版本。文章分析了各代TPU的技术革新,如低精度计算、脉动阵列、专用硬件设计等,并探讨了TPU在数据中心和边缘计算中的实际应用效果,以及谷歌如何通过TPU推动移动计算体验的进步。
39 1
【AI系统】谷歌 TPU 历史发展
|
8天前
|
人工智能 自然语言处理 安全
谷歌版贾维斯即将问世,最强Gemini 2.0加持!AI自主操控电脑时代来临
谷歌发布的Gemini 2.0标志着AI新时代的到来,被誉为“谷歌版贾维斯”。该系统在自然语言处理、图像识别及自主操控电脑等方面取得重大进展,尤其在多模态数据处理上表现出色,能更准确理解用户需求并执行复杂任务。尽管存在对AI自主操控可能带来的负面影响的担忧,谷歌强调Gemini 2.0旨在辅助而非替代人类工作,且已采取多项措施保障其安全性和可靠性。
19 5
|
12天前
|
机器学习/深度学习 人工智能 自然语言处理
AI驱动的个性化学习路径优化
在当前教育领域,个性化学习正逐渐成为一种趋势。本文探讨了如何利用人工智能技术来优化个性化学习路径,提高学习效率和质量。通过分析学生的学习行为、偏好和表现,AI可以动态调整学习内容和难度,实现真正的因材施教。文章还讨论了实施这种技术所面临的挑战和潜在的解决方案。
44 7
|
13天前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v3 POD 形态
TPU v3 是 TPU v2 的增强版,主要改进包括:MXU 数量翻倍至 4 个,时钟频率提升 30%,内存带宽扩大 30%,容量翻倍,芯片间带宽增加 30%,可连接节点数增至 4 倍。TPU v3 通过采用水冷系统,不仅提高了功率,还优化了温度管理,显著提升了计算能力和能效。TPU v3 Pod 由 1024 个 TPU v3 组成,算力达 100 PFLOPS,适用于大规模神经网络训练。
24 2
|
14天前
|
机器学习/深度学习 缓存 芯片
【AI系统】谷歌 TPU v1-脉动阵列
本文详细分析了谷歌TPU v1的架构与设计,重点介绍了其核心组件如DDR3 DRAM、矩阵乘法单元(MXU)、累加器及控制指令单元,特别是MXU中脉动阵列的工作机制。通过对比TPU v1与CPU、GPU在服务器环境中的表现,展示了TPU v1在提升神经网络计算吞吐量方面的显著优势,尤其是在低延迟和高能效方面。
44 3
|
1月前
|
人工智能 自然语言处理 搜索推荐
AI辅助教育:个性化学习的新纪元
【10月更文挑战第31天】随着人工智能(AI)技术的发展,教育领域迎来了一场前所未有的变革。AI辅助教育通过智能推荐、语音助手、评估系统和虚拟助教等应用,实现了个性化学习,提升了教学效率。本文探讨了AI如何重塑教育模式,以及个性化学习在新时代教育中的重要性。
|
13天前
|
机器学习/深度学习 人工智能 芯片
【AI系统】谷歌 TPU v4 与光路交换
TPU v4 是谷歌在 TPU v3 发布四年后推出的最新一代 AI 加速器,采用了 7nm 工艺,MXU 数量翻倍,内存容量和带宽显著提升。TPU v4 引入了 Sparse Core 以优化稀疏计算,首次采用了 3D Torus 互联方式,通过 Palomar 光路开关芯片减少系统延迟和功耗。TPU v4 Pod 实现了 1.126 Exaflops 的 BF16 峰值算力,展现了谷歌在大规模并行计算领域的突破。然而,TPU v4 也面临着系统成熟度低、拓扑僵硬和负载均衡问题等挑战。
34 0
|
13天前
|
机器学习/深度学习 存储 人工智能
【AI系统】谷歌 TPU v2 训练芯片
2017年,谷歌推出TPU v2,专为神经网络训练设计,标志着从推理转向训练的重大转变。TPU v2引入多项创新,包括Vector Memory、Vector Unit、MXU及HBM内存,以应对训练中数据并行、计算复杂度高等挑战。其高效互联技术构建了TPU v2超级计算机,显著提升大规模模型训练的效率和性能。
28 0