中国10亿参数规模以上大模型数量超100个

简介: 中国超过100个10亿参数以上AI大模型,彰显全球AI领导地位;广泛应用于多行业,加速数字化转型;政府强调数据开放与市场优化,推动新产业发展;多元算力协同布局,聚焦绿色低碳;面对数据安全与环保挑战,寻求可持续发展道路。

53803570f85c1a913e124a4399ce5770.jpeg
随着科技的飞速发展,人工智能(AI)已经成为推动全球经济发展和技术创新的重要力量。在这个领域,中国取得了令人瞩目的成就,特别是在大模型的研发和应用方面。根据国家数据局局长刘烈宏在中国发展高层论坛2024年年会上的发言,中国拥有的10亿参数规模以上的大模型数量已经超过100个,这一成就标志着中国在全球AI领域的领先地位。

这些大模型的应用范围非常广泛,涵盖了电子信息、医疗、交通等多个行业,形成了上百种应用模式,极大地推动了各行各业的数字化转型。这些模型的强大计算能力和数据处理能力,为智慧城市建设、工业互联网等数智化应用提供了丰富的“原料”,使得产业运行更加高效和智能。

中国政府对AI技术的重视程度可见一斑。国家发展改革委党组成员、国家数据局局长刘烈宏强调,中国将进一步把握数字化、网络化、智能化的发展趋势,加快破除阻碍数据要素合规高效流通的体制机制障碍,优化数据要素市场化配置,催生新产业、新模式、新动能,培育和发展新质生产力。这表明中国政府在推动AI技术发展的同时,也在积极构建一个更加开放、高效和可持续的数据环境。

在产业生态、算力供给、网络传输、业务调度、系统运营、技术创新等方面,中国已经进行了全面部署。下一步,国家将加强通用计算、智能计算、超级计算等多元算力资源的协同发展,合理设计算力资源结构,提高算力资源利用率,实现算力资源供需平衡。此外,推动算力电力协同布局,优化数据中心绿色电力供给,提升数据中心用能效率,保障中国算力基础设施绿色低碳发展,也是未来发展的重要方向。

在全球范围内,数字化转型正成为推动经济增长的关键因素。高通公司总裁安蒙在论坛上表示,智能计算将有助于加快企业数字化转型,实现可持续增长和创新,释放运营效率,提高生产力,催生新的业务模式并提高数字经济的参与度。预计未来三年,数字化转型带来的市场机遇将接近4万亿美元。

在数字化转型的过程中,数据中心作为算力的核心载体,其可持续性也被提到了更加重要的位置。丹佛斯总裁首席执行官方行健分享了他们的实践,即通过整合数据中心和制造工厂产生的多余热量,为区域性供热网络提供热能,这是一种可持续的能源利用方式。

然而,尽管中国在AI领域取得了显著成就,但仍需面对一些挑战。随着大模型数量的增加,如何确保数据安全和隐私保护,防止数据滥用,是需要解决的问题。此外,算力资源的快速增长也对能源消耗和环境影响提出了更高要求。如何在保证技术发展的同时,实现绿色低碳的可持续发展,也是中国需要考虑的重要课题。

目录
相关文章
|
9月前
|
编解码 自然语言处理
重磅!阿里巴巴开源最大参数规模大模型——高达720亿参数规模的Qwen-72B发布!还有一个的18亿参数的Qwen-1.8B
阿里巴巴开源了720亿参数规模的Qwen-72B大语言模型,是目前国内最大参数规模的开源模型。该模型在3万亿tokens数据上训练,支持多种语言和代码、数学等数据。Qwen-72B模型具有出色的评估效果,在数学逻辑和意图理解等方面超过了其他开源模型,并且支持多语言扩展。此外,阿里巴巴还开源了18亿参数规模的Qwen-1.8B模型,虽然规模较小但效果不错。Qwen-72B模型已对学术和个人完全开放,商用情况下月活低于100万可直接商用。有兴趣的用户可以通过相关链接获取模型地址和资源信息。
|
3月前
|
分布式计算 负载均衡 监控
大数据增加分区数量
【11月更文挑战第4天】
60 3
|
2月前
|
机器学习/深度学习 测试技术
全球首次!时序大模型突破十亿参数,华人团队发布Time-MoE,预训练数据达3000亿个时间点
时序数据在动态系统和应用中至关重要,但其复杂性使得分析极具挑战。Time-MoE是一种基于稀疏混合专家设计的可扩展架构,旨在预训练更大、更强大的时序预测模型,同时降低推理成本。它在新数据集Time-300B上训练,包含超过3000亿个时间点,跨9个领域,显著提升了预测精度,成为解决时序预测问题的先进方案。
123 9
|
6月前
|
数据采集 人工智能 算法
谷歌发布大模型数据筛选方法:效率提升13倍,算力降低10倍
【8月更文挑战第31天】近日,谷歌发布了一项名为多模态对比学习联合示例选择(JEST)的研究成果,旨在优化大模型预训练过程中的数据筛选。JEST通过联合选择数据批次而非独立选择示例,利用多模态对比目标揭示数据间的依赖关系,提高了学习效率。实验表明,JEST能显著加速训练并降低计算成本,最多减少13倍迭代次数和10倍计算量。这一成果有望推动大模型预训练更加高效和经济。论文详情见:https://arxiv.org/abs/2406.17711。
95 2
|
存储 算法 数据可视化
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
将330亿参数大模型「塞进」单个消费级GPU,加速15%、性能不减
210 0
|
存储 机器学习/深度学习 自然语言处理
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了
650亿参数,8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了
503 0
|
机器学习/深度学习 存储 自然语言处理
基于单机最高能效270亿参数GPT模型的文本生成与理解
针对GPT基础模型参数量大,训练&推理硬件资源消耗过高等问题,我们采用GPT+MoE的技术架构路线,探索单机最高能效的绿色低碳GPT大模型训练&推理软硬一体化适配技术在中文文本生成场景的落地可行性。
基于单机最高能效270亿参数GPT模型的文本生成与理解
|
人工智能 自然语言处理 机器人
ChatGPT开源替代来了!参数量200亿,在4300万条指令上微调而成
ChatGPT开源替代来了!参数量200亿,在4300万条指令上微调而成
174 0
金融GPT来了:500亿参数,但用来投资还是跑不赢大盘(1)(2)
金融GPT来了:500亿参数,但用来投资还是跑不赢大盘(1)
116 0
|
机器学习/深度学习 存储 人工智能
消费级GPU成功运行1760亿参数大模型
消费级GPU成功运行1760亿参数大模型
521 0