《百炼成金-大金融模型新篇章》––05.问题3:“大模型vs越来越大的模型”,模型sIzE的军备竞赛

简介: 百炼必定成金,新质生产力会催生新质劳动力,谨以此文抛砖引玉,希望与业内的各位朋友一同探讨如何积极拥抱并运用大模型技术,以应对和驾驭不断变化的市场环境,实现科技金融持续稳定的提质增效和创新发展,携手开启金融大模型未来新篇章。

本文来源于阿里云社区电子书《百炼成金-大金融模型新篇章》


问题 3: “大模型 vs 越来越大的模型”,模型 size 的军备竞赛


OpenAI 的研究者在 2020 年发现,大语言模型也遵循着规模定律(ScalingLaw),模型参数数量的增加常常被看作是提高模型性能的一个关键因素。这导致了一种被业界戏称为“模型参数的军备竞赛”的现象,即科研机构和科技公司不断推出参数量更大、计算需求更高的模型,以追求在特定任务上的最佳性能。然而,这种军备竞赛带来了诸多挑战:


越来越大的模型通常具有更强的学习能力和泛化能力,因为有更多的参数可以捕捉数据中的复杂特征和模式。能够处理更复杂的任务和数据集,通常在各种基准和实际问题上表现更好。随着参数数量的增加,模型通常能够更好地理解语言的细微差别或更精准地识别图像中的对象。

 

但越来越大的模型带来能力提升的同时,也带来了海量的算力消耗,如何根据不同的业务场景选择合适的模型将是一个迫在眉睫的问题?


大模型推理运行时,核心消耗的资源是显存,推理过程中除了要加载对应参数的模型,还与输入输出的参数量有关,输入参数越多显存消耗越大,输出参数量越多模型响应越慢,我们根据一个简单的估算公式,来评估不同业务场景的资源消耗:


大模型推理的总显存占用公式: 𝐼𝑛𝑓𝑒𝑟𝑀𝑒𝑚𝑜𝑟𝑦≈ 1.2∗𝑀𝑜𝑑𝑒𝑙𝑀𝑒𝑚𝑜𝑟𝑦


(详见参考:TransformerInferenceArithmetic|kipply'sblog)


以 72B 参数的模型,在 BF16 精度下(浮点数 2 个字节)


𝐼𝑛𝑓𝑒𝑟𝑀𝑒𝑚𝑜𝑟𝑦≈ 1.2*𝑀𝑜𝑑𝑒𝑙𝑀𝑒𝑚𝑜𝑟𝑦(72 亿 *2)≈ 172.8G


运行一个 72B 的大模型至少需要 3 张 A100(80G),现以企业知识库和智能外呼场景为例进行资源评估:


知识库检索场景:典型的 RAG 增强检索高并发场景,输入少输出多,每次问题请求处理时间在 1-2s,峰值支持 50 并发(按照 5000 人的金融机构有 1% 的并发率),需要的 GPU卡的数量在 150-300 张 A100(80G),如果想要更精准的回复,可以选择 200B 或更大的模型,但 200B 大模型算力消耗会有 2.7 倍的增加。


智能外呼场景:典型的高并发低延时场景,输入多输出少,每次意图识别响应时间 200-300ms,峰值支持 1000 并发,需要的 GPU 卡的数量在 600-900 张 A100(80G)。


在正式生产业务应用时,业务是有典型的波峰波谷的,如果我们按照波峰要求建设算力池,势必会带来资源的低效使用,例如:知识库检索应用的平均资源利用率在 20%-30%;智能外呼应用的平均资源利用率在 5%-10%。如何提高算力资源利用率将是一个颇具挑战的问题?

相关文章
|
23天前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。
|
7天前
|
Python
阿里云百炼大模型生成贪吃蛇小游戏
阿里云百炼大模型生成的贪吃蛇小游戏增加了背景音乐功能。通过Pygame的`mixer`模块,实现背景音乐的加载和播放。关键步骤包括:1. 安装Pygame;2. 准备音乐文件;3. 修改代码以初始化混音器并加载音乐。游戏开始时自动播放背景音乐,支持无限循环。此外,还可以根据需要调整游戏速度、难度及添加更多音效。
34 13
|
2天前
|
人工智能 小程序 API
【最佳实践系列】阿里云百炼「音视频实时互动」功能上线:几分钟实现模型到应用!
阿里云百炼推出「音视频实时互动」功能,支持0代码搭建并集成到Web、iOS和安卓应用。用户可轻松创建AI应用并分享。具体步骤包括新建智能体应用、配置模型(如通义千问-VL)、编写提示词、设置API-KEY及发布应用。平台提供多种渠道支持,如API、网页、小程序等,帮助用户快速构建成熟的AI应用。欢迎体验并在评论区交流反馈。
|
4天前
|
安全 网络协议 Java
【最佳实践系列】高并发调用百炼语音合成大模型
本文介绍了阿里云百炼的CosyVoice语音合成大模型及其高并发调用优化方案。CosyVoice支持文本到语音的实时流式合成,适用于智能设备播报、音视频创作等多种场景。为了高效稳定地调用服务,文章详细讲解了WebSocket连接复用、连接池和对象池等优化技术,并通过对比实验展示了优化效果。优化后,机器负载降低,任务耗时减少,网络负载更优。同时,文章还提供了异常处理方法及常见问题解决方案,帮助开发者更好地集成和使用SDK。
|
1月前
|
机器学习/深度学习 API
重磅!阿里云百炼上线Qwen百万长文本模型
重磅!阿里云百炼上线Qwen百万长文本模型
85 11
|
29天前
|
机器学习/深度学习 人工智能 安全
通义千问开源的QwQ模型,一个会思考的AI,百炼邀您第一时间体验
Qwen团队推出新成员QwQ-32B-Preview,专注于增强AI推理能力。通过深入探索和试验,该模型在数学和编程领域展现了卓越的理解力,但仍在学习和完善中。目前,QwQ-32B-Preview已上线阿里云百炼平台,提供免费体验。
|
1月前
|
机器学习/深度学习 API Python
阿里云百炼上线Qwen2.5-Turbo模型,可支持100万超长上下文
Qwen2.5-Turbo已上线,支持100万超长上下文,相当于100万个英文单词或150万个汉字。该模型在多个长文本任务评测集中表现出色,超越GPT-4,同时在推理速度上实现4.3倍提升。限时免费赠送1000万tokens额度,欢迎体验。
|
1月前
|
人工智能 自然语言处理 算法
Jarvis×百炼,打造大模型智慧出行客服
本次分享由哈啰集团高级算法专家郭佳盛主讲,主题为“Jarvis×百炼,打造大模型智慧出行客服”。内容涵盖AI在智慧出行领域的应用探索、AI加持客服全链路解决方案、哈罗智能客服的大模型应用、大模型在C端与B端的应用探索,以及企业内部大模型构建与运营。通过实例和经验分享,展示了哈啰如何将大模型应用于实际业务,提升用户体验和运营效率。
|
2月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
阿里云百炼大模型:引领企业智能化升级的下一代 AI 驱动引擎
随着人工智能技术的快速发展,大规模预训练模型正在改变各行各业的智能化进程。阿里云百炼大模型(Ba-Lian Large Model)作为阿里云推出的企业级 AI 解决方案,通过深度学习、自然语言处理、计算机视觉等前沿技术,帮助企业实现智能化升级,提升业务效率和创新能力。本文将详细介绍阿里云百炼大模型的核心技术、应用场景及其优势,帮助企业更好地理解和利用这一革命性工具。
798 1

热门文章

最新文章