2023云栖大会 阿里云CTO周靖人,打造一朵AI时代最开放的云

本文涉及的产品
对象存储 OSS,20GB 3个月
文件存储 NAS,50GB 3个月
日志服务 SLS,月写入数据量 50GB 1个月
简介: 2023云栖大会上,阿里云宣布了一项重磅计划:阿里云高校计划,助力高校科研与教育加速,让每位中国在校大学生真实受益于普惠算力。目前,清华大学、北京大学、浙江大学、上海交通大学、中国科学技术大学、华南理工大学等高校已首批达成合作。


10月31日,在2023云栖大会上,阿里云CTO周靖人表示,面向智能时代,阿里云将通过从底层算力到AI平台再到模型服务的全栈技术创新,升级云计算体系,打造一朵AI时代最开放的云。在现场,周靖人公布了云计算基础能力的最新进展,升级了人工智能平台,并发布千亿级参数规模的大模型通义千问2.0,以及一站式模型应用开发平台阿里云百炼,阿里云已初步建成AI时代全栈的云计算体系。

“目前,中国有一半大模型企业跑在阿里云上,280万AI开发者活跃在阿里云魔搭社区上,未来,阿里云将携手千行百业推动AI创新,共享技术红利。”周靖人说。

(图:智能时代的云计算技术体系)

1. 全面升级AI基础设施

大模型是本轮AI浪潮的核心技术,基础模型的质量很大程度决定了AI产业化的前景。训练大模型是囊括了算力底座、网络、存储、大数据、AI框架、AI模型等复杂技术的系统性工程,只有强大的云计算体系才能训练出高质量的大模型。

周靖人表示,2009年阿里云就提出“数据中心是一台计算机”的理念,今天,AI时代更加需要这样的技术体系。作为一台超级计算机的云计算,可高效连接异构计算资源,突破单一性能芯片瓶颈,协同完成大规模智能计算任务。

为了保证大模型训练的稳定互联和高效并行计算,阿里云全新升级了人工智能平台PAI。PAI底层采用HPN 7.0新一代AI集群网络架构,支持高达10万卡量级的集群可扩展规模,超大规模分布式训练加速比高达96%,远超业界水平;在大模型训练任务中,可节省超过50%算力资源,性能全球领先。

(图:阿里云全面升级AI基础设施)

阿里云通义大模型系列就是基于人工智能平台PAI训练而成。除了通义大模型,中国一半大模型公司跑在阿里云上,百川智能、智谱AI、零一万物、昆仑万维、vivo、复旦大学等大批头部企业及机构均在阿里云上训练大模型。

百川智能创始人兼CEO王小川表示,“百川成立仅半年便发布了7款大模型,快速迭代背后离不开云计算的支持。”百川智能和阿里云进行了深入合作,在双方的共同努力下,百川很好地完成了千卡大模型训练任务,有效降低了模型推理成本,提升了模型部署效率。

阿里云已成为中国众多头部主流大模型的公共AI算力底座。截至目前,中国众多头部主流大模型都已通过阿里云对外提供API服务,包括通义系列、Baichuan系列、智谱AI ChatGLM系列、通用大模型等。

随着AI产业化逐步深入,必将迎来大规模智能算力需求爆发。阿里云已在全球30个地域建设了89个云计算数据中心,提供3000余个边缘计算节点,云计算的低延时、高弹性优点将发挥得淋漓尽致。今年,阿里云成功支撑火爆全网的妙鸭相机短时间高强度的流量爆发。

2. 走向自动驾驶的云

周靖人说:“随着大模型技术与云计算本身的融合,我们希望未来的云可以像车一样也能够自动驾驶,大幅提升开发者使用云的体验。”

据悉,阿里云上有超过30款云产品接入了大模型能力,例如阿里云大数据治理平台DataWorks新增了全新的交互形态——Copilot,用户只需用自然语言输入即可生成SQL,并自动执行相应的数据ETL操作,整体开发与分析可提效30%以上,堪比“自动驾驶”。

阿里云容器、数据库等产品上也提供了类似的开发体验,可实现NL2SQL、SQL注释生成/纠错/优化等功能,未来这些能力还将集成到阿里云其他产品上。

3. 更好的大模型,加速应用创新

在2023云栖大会现场,周靖人公布了阿里自研大模型的最新进展,发布千亿级参数规模的通义千问2.0。通义千问2.0在10个权威测评中多方面超越GPT-3.5和Llama2,加速追赶GPT-4。

(图:通义千问2.0千亿级参数规模大模型发布)

千行百业都想借助大模型实现生产和服务方式的变革,但大模型使用的高门槛把大部分人挡在了技术浪潮之外。不论是定制专属大模型,还是基于大模型构建创新应用,都有很高的人才、技术、资金要求。

在云栖大会现场,周靖人发布一站式大模型应用开发平台——阿里云百炼,该平台集成了国内外主流优质大模型,提供模型选型、微调训练、安全套件、模型部署等服务和全链路的应用开发工具,为用户简化了底层算力部署、模型预训练、工具开发等复杂工作。开发者可在5分钟内开发一款大模型应用,几小时即可“炼”出一个企业专属模型,开发者可把更多精力专注于应用创新。

为推动大模型更易在千行百业集成落地,阿里云基于通义“打样”了8个行业大模型,并在现场公布进展:个性化角色创作平台通义星尘、智能投研助手通义点金、AI阅读助手通义智文等首次亮相;智能编码助手通义灵码已在阿里云内部大规模采用,广受好评;工作学习AI助手通义听悟每天处理5万余个音视频,累积用户超100万。

大模型正引发千行百业的新一轮创新,目前,央视网、朗新科技、亚信科技等企业已率先在阿里云百炼上开发专属模型和应用,朗新科技在云上训练出电力专属大模型,开发“电力账单解读智能助手”“电力行业政策解析/数据分析助手”,为客户接待提效50%、降低投诉70%。

4. 用坚定的开放,共促生态繁荣

“促进中国AI生态繁荣,是阿里云的首要目标。阿里云将坚定打造AI时代最开放的大模型平台,我们欢迎所有大模型接入阿里云百炼,共同向开发者提供AI服务。”周靖人表示。

阿里云是国内最早开源自研大模型的科技公司,掀起中国大模型开源浪潮。目前,阿里云已开源通义千问7B、14B版本,下载量突破百万。在现场,周靖人宣布通义千问72B模型即将开源,将成为中国参数最大的开源模型。

除了与开发者共享自研新技术,阿里云还大力支持三方大模型发展。在阿里云魔搭社区上,百川智能、智谱AI、上海人工智能实验室、IDEA研究院等业界顶级玩家,都开源首发他们的核心大模型,阿里云则为开发者们“尝鲜”大模型提供免费GPU算力,截至目前已超3000万小时。

(图:阿里云魔搭社区模型下载量突破1亿)

周靖人透露,魔搭社区现已聚集2300多款AI模型,吸引280万名AI开发者,AI模型下载量突破1亿,成为中国规模最大、开发者最活跃的AI社区。

2023云栖大会上,阿里云宣布了一项重磅计划:阿里云高校计划,助力高校科研与教育加速,让每位中国在校大学生真实受益于普惠算力。此外,阿里云还将为签约高校提供更大规模的算力资源支持,助力中国青年学者和学子攀登科研高峰。目前,清华大学、北京大学、浙江大学、上海交通大学、中国科学技术大学、华南理工大学等高校已首批达成合作。



相关文章
|
13天前
|
人工智能 Java Serverless
阿里云函数计算助力AI大模型快速部署
随着人工智能技术的快速发展,AI大模型已经成为企业数字化转型的重要工具。然而,对于许多业务人员、开发者以及企业来说,探索和利用AI大模型仍然面临诸多挑战。业务人员可能缺乏编程技能,难以快速上手AI模型;开发者可能受限于GPU资源,无法高效构建和部署AI应用;企业则希望简化技术门槛,以更低的成本和更高的效率利用AI大模型。
68 12
|
13天前
|
机器学习/深度学习 人工智能 自然语言处理
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
智谱AI推出的GLM-4V-Flash是一款专注于图像理解的免费开放大模型,提供API接口支持用户上传图片URL或Base64编码图片获取详细的图像描述。该模型通过深度学习和卷积神经网络技术,简化了图像分析流程,提高了开发效率,适用于内容审核、辅助视障人士、社交媒体、教育和电子商务等多个应用场景。
85 14
GLM-4V-Flash:智谱 AI 免费开放的图像理解大模型 API 接口
|
3天前
|
机器学习/深度学习 人工智能 运维
阿里云技术公开课直播预告:基于阿里云 Elasticsearch 构建 AI 搜索和可观测 Chatbot
阿里云技术公开课预告:Elastic和阿里云搜索技术专家将深入解读阿里云Elasticsearch Enterprise版的AI功能及其在实际应用。
阿里云技术公开课直播预告:基于阿里云 Elasticsearch 构建 AI 搜索和可观测 Chatbot
|
2天前
|
人工智能 大数据 测试技术
自主和开放并举 探索下一代阿里云AI基础设施固件创新
12月13日,固件产业技术创新联盟产业峰会在杭州举行,阿里云主导的开源固件测试平台发布和PCIe Switch固件技术亮相,成为会议焦点。
|
1天前
|
JSON 分布式计算 数据处理
加速数据处理与AI开发的利器:阿里云MaxFrame实验评测
随着数据量的爆炸式增长,传统数据分析方法逐渐显现出局限性。Python作为数据科学领域的主流语言,因其简洁易用和丰富的库支持备受青睐。阿里云推出的MaxFrame是一个专为Python开发者设计的分布式计算框架,旨在充分利用MaxCompute的强大能力,提供高效、灵活且易于使用的工具,应对大规模数据处理需求。MaxFrame不仅继承了Pandas等流行数据处理库的友好接口,还通过集成先进的分布式计算技术,显著提升了数据处理的速度和效率。
|
16天前
|
人工智能 NoSQL MongoDB
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
阿里云与MongoDB庆祝合作五周年,展望AI赋能新未来
|
11天前
|
人工智能 Cloud Native 调度
阿里云容器服务在AI智算场景的创新与实践
本文源自张凯在2024云栖大会的演讲,介绍了阿里云容器服务在AI智算领域的创新与实践。从2018年推出首个开源GPU容器共享调度方案至今,阿里云容器服务不断推进云原生AI的发展,包括增强GPU可观测性、实现多集群跨地域统一调度、优化大模型推理引擎部署、提供灵活的弹性伸缩策略等,旨在为客户提供高效、低成本的云原生AI解决方案。
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
AI技术深度解析:从基础到应用的全面介绍
人工智能(AI)技术的迅猛发展,正在深刻改变着我们的生活和工作方式。从自然语言处理(NLP)到机器学习,从神经网络到大型语言模型(LLM),AI技术的每一次进步都带来了前所未有的机遇和挑战。本文将从背景、历史、业务场景、Python代码示例、流程图以及如何上手等多个方面,对AI技术中的关键组件进行深度解析,为读者呈现一个全面而深入的AI技术世界。
53 10
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
6天前
|
机器学习/深度学习 人工智能 算法
探索AI在医疗诊断中的应用与挑战
【10月更文挑战第21天】 本文深入探讨了人工智能(AI)技术在医疗诊断领域的应用现状与面临的挑战,旨在为读者提供一个全面的视角,了解AI如何改变传统医疗模式,以及这一变革过程中所伴随的技术、伦理和法律问题。通过分析AI技术的优势和局限性,本文旨在促进对AI在医疗领域应用的更深层次理解和讨论。
下一篇
DataWorks