降价后!有头部企业调用量翻了100倍

简介: 降价后!有头部企业调用量翻了100倍


上周,阿里云在武汉AI峰会上宣布阿里云通义千问大模型通义9款主力大模型大幅降价。其中,通义千问GPT-4级主力模型Qwen-Long 的 API输入价格低至1块钱可以买200万tokens。


距离大降价不到一周,企业和开发者用自己的积极响应表示了对通义大模型的支持。近日在阿里云青岛AI峰会上,阿里云智能集团副总裁、公共云华北大区总经理高飞表示已有头部企业调用量翻了100倍,并列举了通义大模型降价后的一周的三大变化。



公共云+API,直接调用大模型更便捷


一家制造业龙头企业,降价前基于开源模型做私有化部署,降价后CTO决定调整公司策略,以公共云+API调用通义的形式为主,进一步提效降本。


不管是开源模型还是商业化模型,公共云+API都将成为企业使用大模型的主流方式。最近的一份调查显示,70%的组织正在使用这种方式。


为了更好的支持生成式人工智能的创新,阿里云已经建立了“以模型为中心”的完整技术栈,进一步发挥公共云的成本和性能优势。自研的异构芯片互联、高性能网络HPN7.0、高性能存储CPFS、人工智能平台PAI等核心技术和产品,构建了极致弹性的AI算力调度系统。同时,百炼分布式推理加速引擎,也压缩了模型推理成本,并加快模型推理速度。


投入产出比更好,大规模应用更轻松

降价后,一家头部招聘企业将大模型从简历筛查推广到更多创新业务场景。以往,人工和智能的成本难分高下,降价后高下立判。一周内,该企业的大模型调用量翻了100倍,但数百万调用量的成本不到200元,成本大幅下降。


即便是同样的开源模型,在公共云上的调用价格也远远低于私有化部署。以使用Qwen-72B开源模型、每月1亿tokens用量为例,在阿里云百炼上直接调用API每月仅需600元,私有化部署的成本平均每月超1万元。


未来,相较于模型的私有化部署,公共云上调用的成本优势会持续扩大,这是由公共云的规模化优势决定的。


调用接近“免费”,“先跑起来”更容易


用大模型做业务创新,对中小企业和开发者来说,是非常友好的方式。没有很高的技术门槛,也没有很重的技术投入,接近“免费”的使用成本,打消了他们最后的顾虑——不用考虑先算钱,还是先做应用。


同时,阿里云百炼平台还内置了大模型定制与应用开发工具链,开发者可以便捷地测试比较不同模型,开发专属大模型,并轻松搭建RAG等应用。从调模型、搭应用到对外服务,一站式搞定。


/ END /


目录
相关文章
|
3月前
|
数据采集 人工智能 算法
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
【8月更文挑战第31天】近日,谷歌发布了一项名为多模态对比学习联合示例选择(JEST)的研究成果,旨在优化大模型预训练过程中的数据筛选。JEST通过联合选择数据批次而非独立选择示例,利用多模态对比目标揭示数据间的依赖关系,提高了学习效率。实验表明,JEST能显著加速训练并降低计算成本,最多减少13倍迭代次数和10倍计算量。这一成果有望推动大模型预训练更加高效和经济。论文详情见:https://arxiv.org/abs/2406.17711。
53 2
|
3月前
|
存储 算法 大数据
小米教你:2GB内存搞定20亿数据的高效算法
你好,我是小米。本文介绍如何在2GB内存中找出20亿个整数里出现次数最多的数。通过将数据用哈希函数分至16个小文件,每份独立计数后选出频次最高的数,最终比对得出结果。这种方法有效解决大数据下的内存限制问题,并可应用于更广泛的场景。欢迎关注我的公众号“软件求生”,获取更多技术分享!
177 12
|
6月前
|
小程序 vr&ar
一个小动作,点击量上涨17倍,有小程序就能用!
一个小动作,点击量上涨17倍,有小程序就能用!
59 11
|
消息中间件 人工智能 Serverless
函数计算FC降价全解析,最高幅度达93%,怎么用才便宜?
今年云栖大会,函数计算3.0全新升级,相对函数计算2.0,3.0版本突出易用性、高弹性,并且可以和更多阿里云服务无缝集成。业内首发神龙 Serverless GPU 架构,冷启动大幅优化,全链路调度延时降低 80%,函数执行性能波动率降低 70%;作为事件驱动的全托管计算服务,足够轻量灵活,让用户以更少的代码,更好、更快地实现业务创新。函数计算 FC 通过大规模的资源池化和调度策略优化实现降本,阶梯定价最高降幅可达 93%。
函数计算FC降价全解析,最高幅度达93%,怎么用才便宜?
|
6月前
|
人工智能 算法 搜索推荐
某国有银行业务收益提升30倍,它究竟是怎么做到的!
在激烈的银行竞争环境下,释放存量客户的复购潜力成为关注的重点。然而,目前银行销售理财产品过程中存在一系列问题,其中一个主要原因是过度依赖理财经理的个人经验。国有银行也难以避免这些问题在目标客户定位和营销执行过程中的出现。
|
存储 算法 数据可视化
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
191 0
|
Python
三年前写的文章,阅读量暴涨了6.8万。。。
三年前写的文章,阅读量暴涨了6.8万。。。
104 0
|
存储 缓存 分布式计算
腾讯自选股如何实现单位小时内完成千万级数据运算
腾讯自选股 App 在增加了综合得分序的 Feed 流排序方式:需要每天把(将近 1000W 数据量)的 feed 流信息进行算分计算更新后回写到数据层。目前手上的批跑物理机器是 16 核(因为混部,无法独享 CPU),同时剩下可用内存仅 4-8G。显而易见的是:我们可以申请机器,多机部署,分片计算或者通过现有的大数据平台 Hadoop 进行运算都看似可以解决问题。但是由于更新 feed 流的操作需要依赖下游服务(这里暂且叫 A,后续文中提到下游服务均可称 A 服务),而下游的服务 A-Server 本身是个 DB 强绑定的关系,也就说明了下游的服务瓶颈在于 DB 的 QPS
460 0
腾讯自选股如何实现单位小时内完成千万级数据运算
|
SQL 缓存 搜索推荐
数据层缓存(网站性能翻10倍)
缓存是一把尖刀,合理使用可大大提升吞吐率!
126 0
|
存储
4.3.6 创建一个存储过程获取国内长线游产品的最高价格,并针对该产品价格的区间范围,做出相应的调整
4.3.6 创建一个存储过程获取国内长线游产品的最高价格,并针对该产品价格的区间范围,做出相应的调整
114 0