对话阿里云CIO蒋林泉:AI时代,企业如何做好智能化系统建设?

本文涉及的产品
NLP 自学习平台,3个模型定制额度 1个月
NLP自然语言处理_高级版,每接口累计50万次
NLP自然语言处理_基础版,每接口每天50万次
简介: 10月18日, InfoQ《C 位面对面》栏目邀请到阿里云CIO及aliyun.com负责人蒋林泉(花名:雁杨),就AI时代企业CIO的角色转变、企业智能化转型路径、AI落地实践与人才培养等主题展开了讨论。

【阅读原文】戳:对话阿里云CIO蒋林泉:AI时代,企业如何做好智能化系统建设?

今天,“AI一日,地上一年”这句话正不断具象化。过去一年来,AI无论在应用落地还是技术发展上,都经历了飞速地革新。从智能客服到自动化生产线,从数据分析到决策支持,AI化的应用正在深刻改变企业的运营模式和竞争力。 在AI技术日新月异的当下,智能化系统建设显然已成为企业数字化转型升级的必由之路。

 

首席信息官(CIO)作为一家公司的关键技术掌舵者,对此的感受更加深刻。顾名思义,CIO的核心职责是信息系统管理。然而,在AI时代的影响下,智能(Intelligence)对其的重要程度似乎正悄然超越信息(Information)。这一过程中,CIO与一线业务部门都在不同层面上遇到诸多挑战,同时也积累了许多有价值的经验。

 

10月18日, InfoQ《C位面对面》栏目邀请到阿里云CIO及aliyun.com负责人蒋林泉(花名:雁杨),就AI时代企业CIO的角色转变、企业智能化转型路径、AI落地实践与人才培养等主题展开了讨论。本次对话中,雁杨还分享了阿里云在这一领域的探索成果与思考总结,希望能够帮助更多企业为AI浪潮下的技术转型做好布局和落地策略。

 

 

 

 

AI时代,企业CIO发生哪些改变?

 

 

 

InfoQ:在AI时代,企业CIO的角色定位是否出现了变化?

 

蒋林泉(雁杨):先来谈不变的部分,就是CIO首先要同业务战略贴合,设法贴近业务、支撑好业务目标,用信息化技术支撑业务发展,这是永远不变的主题。

这一年来唯一的变化就是AI技术极大地改变了信息系统的开发方式,进而提升业务效率,这也是AI时代对CIO带来的最大影响。现在我有一种前所未有的强烈感受,新时代里CIO的字母I所指的含义应该从Information变成Intelligence。现阶段,CIO需要结合智能的能力为业务带来更多改变,推动企业信息系统向智能化转型。

 

InfoQ:过去一年,AI领域出现了很多技术创新,这些新技术对CIO的工作带来了哪些新的启发?

 

蒋林泉(雁杨):过去一年,文本基础模型有了突飞猛进的变化,我们自己也感到好像升级一个基础模型效果马上好一大截,但到后面发现这方面就开始递减了。特别是到了GPT4和通义的最新版本后,我发现文本部分很难通过基础模型的切换获得很大的提升。后面我们就观察到整个业界开始朝着多模态的方向转变,还有最近o1在慢思考、推理侧、复杂问题以及物理数学领域做scaling law。

 

在多模态领域,我们也会积极去尝试。因为端对端的多模态,特别是语音能够极大改善我们同客户之间的交流效果,大大超过原来使用的语音机器人,因为明显它就像真人一样,而且这个人比以前的客服可能更聪明、更有耐心。

 

InfoQ:随着OpenAI发布了o1模型,您认为其对企业级AI应用带来了哪些启发?

 

蒋林泉(雁杨):目前的AI大模型应用中,我们观察到客户关于信息获取和决策方面的自然语言问题描述中有大约10%是属于复杂推理的类别,而RAG与现有基础模型的组合处理这种问题的能力是不够好的。o1本质上是将原来的一次性输出改成了把复杂问题拆解成不同的步骤,对每个步骤找到最佳解,最后推理出最终结果。我们认为这种范式不仅适用于STEM领域,也同样适用于企业信息系统。

 

后续我们会使用类似o1的模型来解决这10%的问题,之后企业信息系统的知识获取和推理决策能力上限会得到大幅度提升,用户就会尝试用它解决更复杂的问题,产生新的需求。在AI时代,客户会把对信息系统的真实诉求用自然语言的方式表达出来,以前产品经理要获取这些真实需求的效率非常低,现在每个人都会主动用自然语言将这些信息提供给你,打开了信息系统的产品需求阀门,且他的自然语言描述是原汁原味的,不用翻译成结构化的信息。

 

如果从迭代效率来讲,从需求到满足一轮迭代的工程效率可能会变成1000倍甚至更高。同时它收集真实需求的准确性、完整性非常高,相当于我有了一大批产品经理。这一点和C端还不太一样,因为C端很容易获取产品需求,大家身边人人都是用户,但B端服务的角色都在工作流中,产品研发必须进入到工作流中才能获得真实反馈。所以AI对B端的效率提升是非常大的。

 

 

 

 

如何能让业务部门为AI“买单”?

 

 

 

InfoQ:作为CIO,您如何带领企业将智能的理念融入信息系统建设,执行AI战略?

 

蒋林泉(雁杨):这一次技术变革影响最大的是“信息获取”。大模型技术的最大好处,就是可以将全链路的信息快速结构化,并将分散在各处的信息快速聚合,从根本上改变信息获取方式,使信息获取效率得到飞跃。回顾信息获取途径的发展历史,最早的获取方式就是目录,之后出现了搜索辅助。到了今天,用户只需要输入自然语言,大模型就能给出他所需要的答案。我们粗略估算,基于大模型的信息获取方式的效率可能达到搜索方式的10倍,而搜索方式的效率又是目录方式的10倍。

 

 

信息思考和决策阶段同样深受AI技术影响。AI大模型为系统引入了一个强大的“大脑”,超越传统固定的规则性思考框架,增强了信息处理、思考与推理的灵活性,极大提升了系统思考能力的广度和深度。同时,AI界面将信息获取与思考融合,使客户能在同一界面下实现信息、决策与行动的联动,大幅提高了整体效率,在支撑能力方面有了巨大飞跃。

 

除了信息获取、决策与任务执行效率的巨大提升外,AI时代的产品开发方式也迎来了革新。如今,通过AI 界面的信息获取与思考模式转变,用户能直接以自然语言表达其对信息、思考过程及任务执行的需求,无需面对面访谈,减少了信息损失,加速了反馈收集,提高了需求理解和响应的速度与精度。这不仅提升了产品对特定需求的服务质量,还帮助我们全面洞察客户对系统、业务、知识获取、决策及任务执行的完整需求及其优先级,构建了满足真实业务需求的闭环,推动产品实现质的飞跃。

 

总体而言,AI大模型不仅在信息获取与决策行动上形成了效率飞轮,还在产品迭代上创造了新的动力机制。结合这两方面,AI化信息系统有望实现效率与效果百倍以上的提升。因此CIO应考虑如何快速推动组织转型,利用这一双轮驱动模型,推动企业信息系统向更高效率和智能化迈进,实现从Information到Intelligence的根本转变。

 

InfoQ:作为阿里云的CIO,你有没有在公司信息系统的改造过程中应用AI技术?

 

蒋林泉(雁杨):我们在CRM系统针对销售小二,以及在aliyun.com针对终端客户都应用了AI助理,这都帮助他们高效获取信息、辅助思考并完成任务。此外,我们也启动了AI技术在所有中后台的落地,包括风控、法务等相关链路。

 

InfoQ:在信息系统改造过程中往往面临所谓部门墙的阻力。那么阿里云的企业信息系统智能化过程中是否有这方面的挑战?

蒋林泉(雁杨):这是个老生常谈的问题,就是CIO如何在组织里获取支持和在部门之间开展工作。我认为这个问题在AI时代反而变小了,最主要的原因就是AI技术过去一年来的高速发展使得所有业务部门都在思考能否利用AI来提升效率。这是历史上任何一种技术都没有带来过的局面。

 

有了共识,CIO又如何能让业务部门为AI技术落地买单呢?我们还是要同公司的业务部门沟通,了解他们的业务目标,进到他们的业务流程里了解痛点、分析效率和开销。所以我对我的产品经理和团队提出了要求,不能只满足于同客户做访谈,必须要代入客户的角色,要进入到业务流程里,深刻体会那些业务部门在真实一线里操作时的痛点。我们用手段解决这些痛点,就和他们在一个战壕里,他们会非常欢迎你。更重要的一件事情是,要在AI技术领域找到一个非常好的切入点,让它能真正产生榜样效应。

 

 

 

 

 

AI在企业信息系统中应如何落地?

 

 

 

InfoQ:在AI落地方面,企业普遍关注的方向有两个:知识库和客服。在知识库的AI化层面,阿里云主要做了哪些事情?

蒋林泉(雁杨):我认为知识库在AI时代变得前所未有的重要,它不是应用,而是应用支撑。我们每个领域的应用都依赖于企业知识库,没有知识库,大模型是没有知识去服务这个领域的。所以现在企业知识库的利用率会得到极大提升,同时大模型给知识库提出的要求也具象化了。

 

用AI助理去服务客户时,对知识库的知识提出了两项要求:第一是完整性,领域的知识不完整,AI就回答不了客户的问题;第二就是准确性。另一方面,企业的知识本质来讲是领域专家大脑里知识的外化,如何萃取专家知识进入知识库是非常关键的一件事。而在新时代,使用AI的方式来萃取专家知识的成本相对更低,这让知识库本身也变得更好,形成了正向的循环。

 

InfoQ:谈到知识库的完整性,企业知识库的边界怎么确定?需要获取全领域的知识还是局限在公司范围内就足够?

 

蒋林泉(雁杨):在企业信息系统中,我们之所以会利用知识库加RAG的组合,是因为基础模型是利用互联网所有知识来训练的,特别容易出现幻觉。RAG 的原理就是将模型回答的领域限制在知识库里,知识库的边界就是智能系统想要让客户获取的知识的边界,这里的完整性是企业自己定义的。

 

如果客户问到了企业外部和边界之外的知识,我们会做意图识别,不在支持范围内就会在入口设计一个反馈。比如有些国家管控的话题,AI助理会说“这个问题我们无法回答”。如果问题超出了边界又是合法的,之前我们的AI助理会说“这不是我的回答范围”,但这样可能不太友好。后来我们改进了一下,问题是技术方面的但和我们的云技术业务关联不大,AI助理会说“这不在我们的服务范围内”,然后我们会请通义来回答,但会讲清楚“下面是通义的答案”。也就是说,这里会明确这不是我们的信息系统自己给出的答案,至少边界和责任做了很好的划分。

 

InfoQ:如何让客户认为AI给出的答案是准确的,不是似是而非的?

 

蒋林泉(雁杨):大模型应用落地时最大的坑就是会帮你编出来一个看起来是对的答案,这也是为什么从第一天就要引入专家评测。这里指的是真正的人类专家,而不是普通用户,因为普通用户没法校验模型生成的幻觉内容是真是假。因为应用方最终是要拿这些回答去干活、服务最终用户的,出了问题是会有后果的。

 

这也是To B和To C不太一样的地方,C端出问题更多是闹个笑话,反正服务本身可能也是免费的。B端最重要的一点就是要保证准确性,涉及两个维度。第一是知识库的完整性,这也需要专家来保证;第二就是专家评测。专家知识库加上专家评测,是所有AI落地企业应用的必不可少的基石,毕竟AI本质上是学习人脑中的知识和技能。

 

InfoQ:在AI客服层面,阿里云有哪些具体实践?

 

蒋林泉(雁杨):最开始相当于是客服的Copilot,就是帮助客服更好地服务客户,包括销售小二和服务小二。相当于客服身边有一位师傅,适用于没那么实时交互的客户场景。第二个层次是Native,在客户同客服语音交互时,AI根据他们实时对话的上下文来提示客户可能会问哪些问题,这些问题的答案是什么。第三个层次就是完全人工智能的语音客服,但这块我们会相对小心一点,目前更多还是用在原来上一代已经有智能语音的场景,起到提升的效果。

 

我们还是不会把客户同人类客服的交互都换成AI,至少目前还需要一定时间看看它的有效性和客户的感受,更多还是按照场景来区分。我们目前更多还是在第二阶段,我是觉得人工智能永远要有专业的小二在旁边兜底,而AI所做的就是帮助他们解决原本非常繁琐、消耗精力的一些事情,从而提升效率。

 

InfoQ:现实情况是绝大多数企业的技术储备都不如阿里云,但他们也想借鉴阿里云的成功经验,您对于这类企业有哪些建议呢?

 

蒋林泉(雁杨):企业不要花太多时间在底层基础技术的搭建上,要把精力更多放在应用创新和业务目标上面,同时把底层技术更多交给服务商。我自己也是阿里云内部这些AI云服务的最大用户,我们希望在深度落地过程中打磨这些产品,这些产品都经过了我们实际落地应用的考验。





我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~

相关文章
|
1天前
|
存储 人工智能 vr&ar
转载:【AI系统】CPU 基础
CPU,即中央处理器,是计算机的核心部件,负责执行指令和控制所有组件。本文从CPU的发展史入手,介绍了从ENIAC到现代CPU的演变,重点讲述了冯·诺依曼架构的形成及其对CPU设计的影响。文章还详细解析了CPU的基本构成,包括算术逻辑单元(ALU)、存储单元(MU)和控制单元(CU),以及它们如何协同工作完成指令的取指、解码、执行和写回过程。此外,文章探讨了CPU的局限性及并行处理架构的引入。
转载:【AI系统】CPU 基础
|
1天前
|
人工智能 缓存 并行计算
转载:【AI系统】CPU 计算本质
本文深入探讨了CPU计算性能,分析了算力敏感度及技术趋势对CPU性能的影响。文章通过具体数据和实例,讲解了CPU算力的计算方法、算力与数据加载之间的平衡,以及如何通过算力敏感度分析优化计算系统性能。同时,文章还考察了服务器、GPU和超级计算机等平台的性能发展,揭示了这些变化如何塑造我们对CPU性能的理解和期待。
转载:【AI系统】CPU 计算本质
|
1天前
|
机器学习/深度学习 存储 人工智能
转载:【AI系统】计算之比特位宽
本文详细介绍了深度学习中模型量化操作及其重要性,重点探讨了比特位宽的概念,包括整数和浮点数的表示方法。文章还分析了不同数据类型(如FP32、FP16、BF16、FP8等)在AI模型中的应用,特别是FP8数据类型在提升计算性能和降低内存占用方面的优势。最后,文章讨论了降低比特位宽对AI芯片性能的影响,强调了在不同应用场景中选择合适数据类型的重要性。
转载:【AI系统】计算之比特位宽
|
1天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】关键设计指标
本文介绍了AI芯片的关键设计指标及其与AI计算模式的关系,涵盖计算单位(如OPS、MACs、FLOPs)、关键性能指标(精度、吞吐量、时延、能耗、成本、易用性)及优化策略,通过算术强度和Roofline模型评估AI模型在芯片上的执行性能,旨在帮助理解AI芯片设计的核心考量与性能优化方法。
转载:【AI系统】关键设计指标
|
1天前
|
机器学习/深度学习 人工智能 并行计算
转载:【AI系统】AI轻量化与并行策略
本文探讨了AI计算模式对AI芯片设计的重要性,重点分析了轻量化网络模型和大模型分布式并行两大主题。轻量化网络模型通过减少模型参数量和计算量,实现在资源受限设备上的高效部署;大模型分布式并行则通过数据并行和模型并行技术,解决大模型训练中的算力和内存瓶颈,推动AI技术的进一步发展。
转载:【AI系统】AI轻量化与并行策略
|
1天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】AI 发展驱动力
本文介绍了AI的起源与发展历程,强调了2016年AlphaGo胜利对AI关注度的提升。文中详细解析了AI技术在搜索引擎、图片检索、广告推荐等领域的应用,并阐述了机器学习、深度学习和神经网络之间的关系。文章还深入探讨了AI的学习方法,包括模型的输入输出确定、模型设计与开发、训练过程(前向传播、反向传播、梯度更新)及推理过程。最后,文章概述了AI算法的现状与发展趋势,以及AI系统出现的背景,包括大数据、算法进步和算力提升三大关键因素。
转载:【AI系统】AI 发展驱动力
|
1天前
|
机器学习/深度学习 人工智能 算法
转载:【AI系统】AI系统概述与设计目标
本文介绍了AI系统全栈架构,涵盖AI系统的设计目标、组成和生态,强调了系统性能、用户体验、稳定性及开源社区运营的重要性。文章详细解析了AI系统的基本概念、定义及其设计挑战,旨在为读者构建AI系统知识体系,助力AI技术的全面发展。通过对比传统软件和云计算架构,阐述了AI系统在连接硬件与应用间的独特作用,探讨了高效编程语言、开发框架和工具链的设计,以及AI任务的系统级支持,包括计算能力的扩展、自动编译优化、云原生自动分布式化等方面,为应对AI技术的新挑战提供了全面视角。
|
机器学习/深度学习 人工智能 自然语言处理
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
转载:【AI系统】AI的领域、场景与行业应用
本文概述了AI的历史、现状及发展趋势,探讨了AI在计算机视觉、自然语言处理、语音识别等领域的应用,以及在金融、医疗、教育、互联网等行业中的实践案例。随着技术进步,AI模型正从单一走向多样化,从小规模到大规模分布式训练,企业级AI系统设计面临更多挑战,同时也带来了新的研究与工程实践机遇。文中强调了AI基础设施的重要性,并鼓励读者深入了解AI系统的设计原则与研究方法,共同推动AI技术的发展。
转载:【AI系统】AI的领域、场景与行业应用
|
3天前
|
人工智能 缓存 异构计算
云原生AI加速生成式人工智能应用的部署构建
本文探讨了云原生技术背景下,尤其是Kubernetes和容器技术的发展,对模型推理服务带来的挑战与优化策略。文中详细介绍了Knative的弹性扩展机制,包括HPA和CronHPA,以及针对传统弹性扩展“滞后”问题提出的AHPA(高级弹性预测)。此外,文章重点介绍了Fluid项目,它通过分布式缓存优化了模型加载的I/O操作,显著缩短了推理服务的冷启动时间,特别是在处理大规模并发请求时表现出色。通过实际案例,展示了Fluid在vLLM和Qwen模型推理中的应用效果,证明了其在提高模型推理效率和响应速度方面的优势。
云原生AI加速生成式人工智能应用的部署构建