飞桨文心大模型挑战高考作文:平均 1 秒生成 1 篇,水平超 75% 考生

简介: 全国高考正在进行中,百度 AI 技术也迎来一场“高考”。6 月 7 日,百度数字人度晓晓在高考语文考试结束后,化身为“数字人考生”,挑战高考作文写作。

全国高考正在进行中,百度 AI 技术也迎来一场“高考”。6 月 7 日,百度数字人度晓晓在高考语文考试结束后,化身为“数字人考生”,挑战高考作文写作。

AI 写作涉及自然语言处理、数据挖掘、知识图谱等多项人工智能技术,百度使用飞桨文心大模型支持度晓晓完成了高考作文的写作。

度晓晓参与作答了全国新高考Ⅰ卷题为《本手、妙手、俗手》议论文,40 秒就根据题目创作了 40 多篇文章,平均 1 秒生成 1 篇,随机抽取其中一篇,其分数已赶超约 75%高考考生。

image.png

文心大模型写作:平均 1 秒 1 篇,成绩超 75%考生

将 AI 应用于文字创作,在技术圈里早已不算新鲜事。随着大数据、深度学习等技术的发展,AI 在文本生成能力上有了大幅度提升。从财经、体育类新闻快讯,再到诗歌、小说等文学创作,AI 写作覆盖的领域越来越广,创作形式和内容也变得更加丰富多彩。

但相比于评论、摘要、快报等内容形式,用 AI 生成高考作文的难度显然更高。高考作文的写作在“审题”、“逻辑”和“创意”等三个方面对 AI 提出了更大的挑战。在审题层面,高考作文题材、形式众多,再加上纷繁复杂的内容主题,每一种千变万化的组合都是对 AI 的理解能力的极限考验。逻辑层面,高考作文要求 800 字以上,如何保证长文各个片段之间的逻辑性和连贯性对 AI 是另一大挑战。最后,在创意层面,可读性是高考作文最重要的评分标准之一,AI 写作不仅要切题连贯,还要善于引经据典、巧用修辞,甚至推陈出新,避免文章空洞乏味。

面对这些挑战,度晓晓在飞桨文心大模型的帮助指导下,又快又好地完成了写作。曾担任北京高考语文阅卷组组长的申怡为度晓晓的作文打出了 48 分的成绩(满分 60 分)。她表示,根据往年情况,获得 48 分及以上作文成绩的考生,仅占不到 25%,也就是说,度晓晓的作文分数已赶超约 75%高考考生。

image.png

这背后得益于文心大模型最新发布的融合任务相关知识的千亿大模型 ERNIE 3.0 Zeus,该模型在学习海量数据和知识的基础上,进一步学习百余种不同形式的任务知识,增强了模型的效果,在各类 NLP 任务上表现出了更强的零样本和小样本学习能力。通俗地讲,文心大模型就像个见多识广的“尖子生”、“学霸”,它的理解能力和创作能力比传统模型更强。不仅具备“倚马可待”的快速生产能力,还具备“下笔如有神”的质量保证。

在文心大模型的支持下,度晓晓完成的高考作文比以往有了明显的质量提升。首先,生成的作文能够紧扣主题、立意明确,度晓晓很好地理解了给定的作文题目,围绕主题进行文字的组织,佐证文章观点,输出对于主题积极正向的见解;然后在 800 字的长文本中,度晓晓能够保证生成的内容结构完整、语言流畅,并在开头引入和结尾扣题,上下文衔接流畅。同时,由于文心大模型具备更强的知识储备,度晓晓生成的作文更善于引经据典,并恰当使用排比、比喻等修辞手法,提升了文章的可读性。

不过,让申怡感到意外的是,度晓晓在作文里犯了个小错误——使用了网络热词 YYDS。而之所以会出现这样的“丢分点”,是因为度晓晓学习了一些热门网络数据。从生成文章的前后文看,度晓晓是领会了 YYDS 的“精髓”,本身用法贴切,但不太符合高考作文写作规范,也侧面反映了 AI 写作还可以继续学习、进步。

文心大模型助力智能创作,推动 AIGC 时代到来

过去一年,百度 AI 技术落地加速,其中尤以近来新兴的 AIGC 引人注目。AIGC 是继 UGC、PGC 之后一种新型的内容生产方式,指运用人工智能技术自动生产内容,数字人、TTV(Text to Video)等都是其标杆性应用。

百度研究院预测,2022 年 AIGC 技术将借助大模型的跨模态综合技术能力,可以激发创意,提升内容多样性,降低制作成本,实现大规模应用。

本次度晓晓写高考作文,就是基于飞桨文心大模型实现的 AIGC 创作。文心大模型具备“知识增强”的核心特点,能从大规模知识和海量数据中进行融合学习,学习效率更高、效果更好,具有通用性好、泛化性强的特点。

除了智能写作,在文心大模型的支持下,AI 已经具备了很强的理解和生成能力,能够实现创意作品的自动生成,包括 AI 作画、AI 写歌、AI 剪辑等。目前,智能作画、智能对话、智能创作、故事生成等大模型的创意应用已经上线文心大模型创意与探索社区——旸谷社区,搜索「文心大模型」即可进入官网进行体验。未来,基于大模型的 AIGC 将会开放赋能到更多的内容生产领域。

目录
相关文章
|
21天前
|
存储 人工智能 自然语言处理
Llama3-8B秒杀700亿巨兽?北大博士生等全新BoT框架推理暴涨70倍,24点图形推理一步成神
【6月更文挑战第16天】北大团队提出BoT框架,增强LLM推理能力。新方法使用"meta-buffer"存储思维模板,提升效率70倍。在多个推理任务上表现优越,尤其在"Game of 24"等任务中成绩显著,挑战Llama3-70B。然而,计算资源需求大,对复杂任务鲁棒性仍有待提升。[链接:https://arxiv.org/abs/2406.04271]**
83 5
|
20天前
|
自然语言处理 UED C++
《百炼成金-大金融模型新篇章》––06.问题4:“大模型RAG一天入门vs365天的持续优化”,RAG系统的修行
百炼必定成金,新质生产力会催生新质劳动力,谨以此文抛砖引玉,希望与业内的各位朋友一同探讨如何积极拥抱并运用大模型技术,以应对和驾驭不断变化的市场环境,实现科技金融持续稳定的提质增效和创新发展,携手开启金融大模型未来新篇章。
|
机器学习/深度学习 存储 缓存
LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理
LLM推理提速2.8倍,CMU清华姚班校友提出「投机式推理」引擎SpecInfer,小模型撬动大模型高效推理
246 0
|
机器学习/深度学习 自然语言处理
十年来论文量激增,深度学习如何慢慢推开数学推理的门(2)
十年来论文量激增,深度学习如何慢慢推开数学推理的门
|
机器学习/深度学习 消息中间件 人工智能
十年来论文量激增,深度学习如何慢慢推开数学推理的门(1)
十年来论文量激增,深度学习如何慢慢推开数学推理的门
152 0
|
机器学习/深度学习 人工智能 自然语言处理
ChatGPT 加持,决策大模型距离 AGI 更进一步
ChatGPT 加持,决策大模型距离 AGI 更进一步
156 0
|
机器学习/深度学习 存储 人工智能
超大模型出现后,AI的游戏结束了?Gary Marcus:路走窄了
超大模型出现后,AI的游戏结束了?Gary Marcus:路走窄了
|
机器学习/深度学习 自然语言处理 算法
华为诺亚Transformer后量化技术:效率百倍提升,视觉&NLP性能不减
华为诺亚Transformer后量化技术:效率百倍提升,视觉&NLP性能不减
198 0
|
人工智能 自然语言处理 安全
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
153 0
|
机器学习/深度学习 人工智能 自然语言处理
参数少量提升,性能指数爆发!谷歌:大语言模型暗藏「神秘技能」
参数少量提升,性能指数爆发!谷歌:大语言模型暗藏「神秘技能」
108 0