当被大模型输入技术内功,数字人「文画两开花」,还在手机里随时陪你聊天(2)

本文涉及的产品
交互式建模 PAI-DSW,每月250计算时 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,100CU*H 3个月
简介: 当被大模型输入技术内功,数字人「文画两开花」,还在手机里随时陪你聊天

全新内容生产方式 ——AIGC

从对话到写作、作画,度晓晓俨然成为了数字人中的「多面手」。一方面,在百度文心大模型整合的多模态交互、3D 建模、机器翻译、语音识别等多项技术的助力下,度晓晓已经在百度 APP 端内实现了生动拟人智能的互动交流。另一方面,由于文心大模型超强的理解和生成能力,度晓晓的创作能力被充分地挖掘和展现出来。

可以这样说,此时的度晓晓已经脱离了传统意义上的 CG 数字人,有了「内涵」,而这些恰好契合了当下备受关注的新型内容生产方式 ——AIGC,即通过人工智能技术自动生产内容。继 UGC、PGC 之后,大模型赋能下的 AIGC 已经成为了过去一年来百度 AI 技术加速落地的着陆点。

不仅如此,度晓晓近来展现的编曲、互动交流、写作和作画,都只是百度大模型技术支撑下在 AIGC 层面的牛刀小试。随着底层 AI 大模型技术的不断完善,AIGC 的可用性和适用性势必会迎来提升和扩展,更多内容生产领域会被发掘出来。

像度晓晓这样的数字人,落地场景也就不再局限于单一的端内互动或图文创作,未来的舞台可以遍布影视、金融、文旅等各个领域,「天空才是她的极限」。

让大模型不再流于参数,终究还是要落地,实现应用价值

在近年来深度学习领域掀起这波「练大模型」潮流之际,百度持续发力文心大模型也是顺势而为,力争在 AI 巨头的竞争中始终保持领先优势。就之前的趋势而言,追逐参数的多、模型的大似乎在国内外巨头们之间形成了一种默契。

从 GPT-3 开始,千亿、万亿级大模型纷至沓来,如国外谷歌 1.6 万亿参数大模型 Switch Transformer、微软联合英伟达的 5300 亿参数模型 MT-NLG,国内浪潮 2457 亿参数单体模型源 1.0、阿里达摩院 10 万亿参数多模态大模型 M6。

慢慢地,当堆参数及其带来的巨额训练成本不再那么吸引 AI 巨头们时,如何使自身大模型更广泛地落地成为了他们新的目标。作为从 2019 年就开始积累预训练技术和大模型的 AI 头雁,百度在探索大模型过程中修炼了自己的武功秘诀 —— 知识增强

2021 年 12 月,百度发布全球首个知识增强千亿大模型鹏城 - 百度・文心发布,它的参数量达到了 2600 亿,是一个融合了 NLP 和 NLG 的全能模型。当时,百度产业级知识增强大模型文心全景图首次亮相。
今年 5 月的 Wave Summit 峰会上,百度聚焦「前沿大模型技术如何匹配真实场景中的方方面面要求」这一问题,提出了大模型产业落地的三个关键路径,包括更适配应用场景的模型体系、更有效的工具和方法以及更开放的生态。方方面面无不呼应着落地。

同时,文心大模型除了迎来新成员之外,还可以通过百度飞桨的一系列大模型开发套件、大模型API和集成文心大模型的飞桨企业版EasyDL和BML开发平台,全面释放使用效能,进一步降低应用门槛。在生态和社区层面,构建文心・旸谷社区,将大模型能力开放给普通开发者,人人皆可触碰 AI 的魅力。文心大模型的个人、企业开发者数量已超过 6 万人

文心・旸谷社区地址:https://wenxin.baidu.com/younger

全新升级的文心大模型在知识增强和产业级这两方面得到了进一步加强,10 个大模型新成员中的国网 - 百度・文心和浦发 - 百度・文心就分别将文心大模型的能力输入到了能源电力行业和金融服务行业,这也预示着文心大模型与行业的联系越来越紧密。

目前,以知识增强和产业级为指导的文心大模型已经逐渐在百度内外「兑现」了自己的能力。

在百度内部,搜索、信息流、百度地图等场景中可以看到文心大模型的身影,如上文在百度 APP 端智能互动的度晓晓以及小度智能屏等;在百度外部,文心大模型在工业、能源、金融、教育、通信、媒体、医疗等各行各业都有了实战场地,如工业领域的零部件质量检测、金融行业的合同信息抽取等,在赋能行业中真正实现了自身的应用价值。

度晓晓最近频频出圈,让更多人看到了其背后文心大模型的技术内驱力。然而,未来文心大模型的落地场景不应受限。

一方面,文心大模型可以按照能源行业国网 - 百度・文心和金融行业浦发 - 百度・文心的模式继续推出更多行业大模型,持续推进大模型在各行各业的深度应用,满足多样化场景任务需求。

另一方面,在 AI for Science 领域,文心大模型中已经有了两个生物计算大模型(HELIX-GEM 和 HELIX-Fold),未来同样有可能在数学、物理、化学等更多基础学科领域构建专属大模型。这样做可以持续探索大模型在科学领域解决问题的巨大潜力,更全面地推进 AI 与 Science 的融合。

大模型成为行业热点已经有两三年时间,在百度看来,2022 年是大模型产业落地的关键年。不管是度晓晓这一系列的创意应用,还是深入到更广泛的行业和前沿技术领域,百度势必会抓住大模型发展的这一机遇,在产业化落地的融合创新之路上继续又稳又快地走下去。

参考链接:https://arxiv.org/pdf/2109.09519.pdfhttps://arxiv.org/pdf/2006.16779.pdfhttps://aclanthology.org/2020.acl-main.9.pdfhttps://www.jiqizhixin.com/articles/2022-05-20-8https://wenxin.baidu.com/wenxin/modelbasedetail/plato/https://wenxin.baidu.com/wenxin/modelbasedetail/ernie_vilg/https://wenxin.baidu.com/wenxin/modelbasedetail/ernie3_zeus/

相关文章
|
2月前
|
负载均衡 测试技术 调度
大模型分布式推理:张量并行与流水线并行技术
本文深入探讨大语言模型分布式推理的核心技术——张量并行与流水线并行。通过分析单GPU内存限制下的模型部署挑战,详细解析张量并行的矩阵分片策略、流水线并行的阶段划分机制,以及二者的混合并行架构。文章包含完整的分布式推理框架实现、通信优化策略和性能调优指南,为千亿参数大模型的分布式部署提供全面解决方案。
529 4
|
2月前
|
人工智能 自然语言处理 搜索推荐
数字人|数字人平台全域技术分析
在AI与元宇宙驱动下,数字人正重塑千行百业。本文解析行业生态,聚焦技术领军者像衍科技——依托顶尖科研实力,打造全栈技术闭环,推动数字人在医疗、工业、教育等高价值场景规模化落地,树立“技术驱动”新标杆。(238字)
|
2月前
|
机器学习/深度学习 缓存 监控
大模型推理优化技术:KV缓存机制详解
本文深入探讨了大语言模型推理过程中的关键技术——KV缓存(Key-Value Cache)机制。通过对Transformer自注意力机制的分析,阐述了KV缓存的工作原理、实现方式及其对推理性能的显著优化效果。文章包含具体的代码实现和性能对比数据,为开发者理解和应用这一关键技术提供实践指导。
942 8
|
2月前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
1852 2
|
2月前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
292 117
|
2月前
|
人工智能 自然语言处理 安全
AI助教系统:基于大模型与智能体架构的新一代教育技术引擎
AI助教系统融合大语言模型、教育知识图谱、多模态交互与智能体架构,实现精准学情诊断、个性化辅导与主动教学。支持图文语音输入,本地化部署保障隐私,重构“教、学、评、辅”全链路,推动因材施教落地,助力教育数字化转型。(238字)
|
2月前
|
人工智能 文字识别 自然语言处理
从“看见”到“预见”:合合信息“多模态文本智能技术”如何引爆AI下一场革命。
近期,在第八届中国模式识别与计算机视觉学术会议(PRCV 2025)上,合合信息作为承办方举办了“多模态文本智能大模型前沿技术与应用”论坛,汇聚了学术界的顶尖智慧,更抛出了一颗重磅“炸弹”——“多模态文本智能技术”概念。
152 1
|
2月前
|
机器学习/深度学习 存储 并行计算
大模型推理加速技术:FlashAttention原理与实现
本文深入解析大语言模型推理加速的核心技术——FlashAttention。通过分析传统注意力机制的计算瓶颈,详细阐述FlashAttention的IO感知算法设计、前向反向传播实现,以及其在GPU内存层次结构中的优化策略。文章包含完整的CUDA实现示例、性能基准测试和实际部署指南,为开发者提供高效注意力计算的全套解决方案。
364 10
|
2月前
|
存储 人工智能 算法
大模型4-bit量化技术详解
本文系统阐述大语言模型的4-bit量化技术,深入解析GPTQ、AWQ等主流量化方法的原理与实现。通过详细的数学推导、代码实现和实验对比,展示4-bit量化如何将模型内存占用降低75%以上同时保持模型性能。文章涵盖量化感知训练、后训练量化、混合精度量化等关键技术,为开发者提供完整的模型压缩解决方案。
509 7

热门文章

最新文章