科技云报到:从大模型到云端,“AI+云计算”还能讲出什么新故事

简介: 科技云报到:从大模型到云端,“AI+云计算”还能讲出什么新故事

科技云报到原创。

2024年的大模型产业,注定将是会被反复提起的一页。

这一年,被按下加速键的市场刚刚过半,就已经显示出冰火两重天的格局。算法的单模态扩展到多模态,趋势如燎原之火,让全球陷入对世界模型畅想的狂欢中;一级市场逐渐走向冷静,投资人开始频频向企业要收入,百模齐发迅速被简化为几家独角兽之间的资本与技术持久战。

云服务巨头则以一种标准制定者,以及顶级大模型团队背后力量的角色出现,成为市场中隐形的力量。在他们的主导下,过去IaaS、PaaS、SaaS的角色分工,在AI时代被芯片层、框架层、模型层和应用层取代,又迅速进化为基础设施、工具和应用的新“三层架构”。

技术的发展,基础设施的成熟,让千行百业都产生了所有生意都值得在大模型时代重做一遍的信仰。

但如何低成本、高质量的重新做一遍,是所有企业,必须回答的关键问题。

请输入图片描述(最多50字)
从“业务靠近技术”到“技术靠近业务”

如今,“AI转型”正逐步取代“云转型”,成为IT行业的新趋势,AI也已成为硅谷最具想象力的概念。

2025年,是大模型落地的关键年。一方面,大模型Scaling Law的曲线趋缓,基础模型厂商开始收敛,基础模型动辄一次数亿美元的投入,以及不断推高的人才密度等高门槛,意味着只有少数企业能够留在牌桌。

另一方面,大模型落地的紧迫感前所未有,大家都期待大模型产生实实在在的价值,且超出以往的技术能力范畴,全行业都在默契又统一地走向落地。

在ChatGPT爆发的初期,似乎是由新技术创造了新的市场,但是,并非所有的企业都需要一个ChatGPT,而所有企业都需要生成式AI。革命性技术发展的早期看起来是从无到有,在成熟期则是从“业务靠近技术”走向“技术靠近业务”,大模型越往后发展越需要对行业的理解、对产业的专耕。

对于企业来说,要直接将大模型运用好难度较大,毕竟大模型的复杂性、对技术能力和资源等方面的要求较高;而如果抛开行业化这一环节,直接去基于大模型开发具体应用,距离又太过遥远,缺乏有效的衔接过渡。

其中的关键就是技术和行业结合,在当下的生成式AI产业叙事逻辑中,比以往任何时候都需要“行业化”。行业化起着降低大模型技术落地门槛的重要作用,它能够聚焦提炼出各个行业普遍存在的共性难题,进而为大模型更好地适配不同行业提供基础。

相比于新技术落地的其他环节,行业化是一个容易被忽略的部分,却又往往需要最专业的厂商投入大量的资源做具体的事,大多数企业享受了行业化带来的便利,却对大模型落地这一层级的变化感受不明显。

事实上,以ChatGPT为代表的生成式AI技术兴起的近两年,业内普遍关心AI应用的爆发时间。但从任何高科技行业发展的历史来看,但凡应用要爆发,就离不开“降本”这一要素。

模型价格决定了应用使用成本,因为用户使用应用会调用大模型,需要消耗Token,而大模型训练和推理的成本高,API的调用成本就会高,从而限制企业用户、开发者的应用开发步伐。

这就迫使大模型厂商,一方面要不断迭代大模型,在百模大战中以能力胜出;另一方面要降本提效,通过模型机构优化、分布式推理和混合调度等手段进行优化、大幅压缩成本,来不断降低API调用价格,推动应用兴起。

随着AI技术的普及和深入应用,云厂商也面临着越来越多的挑战。一方面,企业需要更加定制化、差异化的AI解决方案来满足其独特的业务需求;另一方面,AI技术的复杂性和不确定性也使企业在应用过程中面临诸多风险。

与五六年前相比,当前AI行业正在发生根本性转变,其中最明显的趋势是,生成式AI的广泛应用使业务部门成为技术创新的重要推动力,企业希望通过AI技术来解决实际问题、提升业务效率。

而这也驱使云厂商在业务开展方面出现了一系列新的变革。在AIGC时代,如何积极响应用户需求,通过提供开箱即用的数据分析能力帮助企业快速接入AI技术,成为这个时代云厂商需要思考的难题。

在模型开发方面,云厂商需要思考如何提升模型落地的工厂化能力,降低硬件成本、提高硬件性能,为企业提供更加稳定、高效的AI运行环境。

其中,把握并识别企业需求是一大难点。企业往往只会提出诸如需要更快、更便宜的GPU这类直观需求,但不会透露更深层次的具体需求,如何运用创新办法来解决相应需求是一大痛点。

请输入图片描述(最多50字)
为千行百业开启数字化新篇章

当前,云服务商的竞争已经从技术维度延展到企业的实际业务需求方面,这也成为亚马逊云科技在AI上的布局重点之一。

在re:Invent 2024全球大会期间,亚马逊云科技不仅展示了其在生成式AI领域的深厚积累,更通过一系列新发布,展示了从模型到应用的全面布局。

作为亚马逊云科技推出的新一代基础模型,Amazon Nova旨在为用户提供多模态、高性能且成本效益显著的生成式AI解决方案。该系列包括Micro、Lite、Pro、Premier等多个版本,分别适用于不同场景下的需求。Micro作为文本到文本的模型,以极低成本提供低延迟响应;Lite则为成本极低的多模态模型,可快速处理多种输入;Pro在准确性、速度和成本间取得平衡,满足多种复杂需求;而Premier则将是功能最为强大的多模态模型,可处理复杂推理任务并指导定制模型蒸馏。

除了基础模型外,亚马逊云科技还推出了新一代图像生成模型Amazon Nova Canvas和视频生成模型Amazon Nova Reel。Canvas能够帮助客户生成高质量图像,并具备图像编辑功能,最高可生成2K分辨率的图像;Reel则以先进的视频生成质量和低延迟著称,提供了性能和成本效益之间的平衡,让视频制作更加普惠化。

为更好地支持生成式AI应用的构建与扩展,亚马逊云科技推出了Amazon Bedrock平台。该平台提供了从模型选择、推理优化到多智能体协作等一系列工具和服务,旨在帮助用户轻松地将生成式AI能力整合到生产环境中。

在模型选择方面,Amazon Bedrock Marketplace汇聚了来自领先供应商的100多个新兴和专业基础模型,用户可以通过统一界面发现、测试并部署所需模型。在推理优化方面,Amazon Bedrock推出了延迟优化选项和模型蒸馏功能,前者基于Amazon EC2 Trn2实例实现更好的推理性能,后者则通过蒸馏技术提升模型运行速度和降低成本。

此外,Amazon Bedrock还支持GraphRAG和自动推理检查功能,分别用于提升数据关联性和预防模型幻觉引起的事实性错误。

除了技术和工具的创新外,亚马逊云科技还通过Amazon Q系列产品加速了生成式AI在业务场景中的应用。Amazon Q Developer和Amazon Q Business分别为开发人员和企业用户提供了强大的生成式AI助手功能。

从行业战略角度看,亚马逊云科技的首要目标是利用领先的云计算、生成式AI和机器学习技术,赋能各行业客户构建业内创新解决方案。

亚马逊云科技正在通过多种方式将这一目标变为现实。比如,目前亚马逊云科技已推出超过40种针对特定行业的专属服务,以及450多个行业专属解决方案。通过这些定制化服务与解决方案,亚马逊云科技助力各种规模的企业加速应用云计算并降低成本,赋能行业专属的工作负载。这些解决方案正以前所未有的速度推动组织创新,助力客户实现突破性里程碑,并为其所在行业带来创新性成果。

同时,亚马逊云科技助力企业加速开启上云之旅,其重点领域涵盖关键系统的迁移和现代化、将本地数据工作负载迁移上云,以及满足各行业的业务需求。通过聚焦这些核心领域,亚马逊云科技帮助各行业客户降低成本(基础设施成本最多可减少66%)、提升运营效率(开发人员生产力最多可提高30%)、加速创新步伐,同时应对复杂挑战并提高可持续性。

生成式AI是亚马逊云科技的另一项重要战略之一。对此,亚马逊云科技与各行业企业携手合作,通过提供企业级安全与隐私保护、多种领先基础模型的选择、坚持数据优先的方法,以及高性能、低成本的基础设施,助力生成式AI创新应用加速落地,充分释放生成式AI的变革潜力。

比如在医疗领域,亚马逊云科技提供为医疗行业设计的专属服务、企业级安全保障以及符合HIPAA标准的工具组件,包括可用于自动生成临床文档的Amazon HealthScribe、增强临床问题解决能力的Amazon Q、可自动将医疗语音转换为文本的Amazon Transcribe Medical,以及准确、快速地从非结构化医学文本中提取信息的Amazon Comprehend Medical,从而为客户转型提供全面的技术支持。

在制造业和工业领域,亚马逊云科技获评2024年Gartner®全球工业物联网平台魔力象限领导者。亚马逊云科技的工业物联网服务套件包括Amazon IoT SiteWise和Amazon Lookout for Equipment,能够助力制造企业彻底革新其运维流程。Coca-Cola İçecek(CCI)以Coca-Cola品牌生产、分销、销售起泡饮料和不充气饮料,该公司通过使用Amazon IoT SiteWise,显著提升了其“原位清洗(Clean in Place, CIP)”流程的可持续性,实现了每年能源消耗降低20%、水资源节约9%,以及流程时间缩短34天的显著成效。

亚马逊云科技全球客户技术支持与服务副总裁Uwem Ukpong表示:“在帮助客户构建生成式AI解决方案的过程中,我们发现企业选择的生成式AI应用场景也在逐渐迭代升级,从原先简单的生成式AI尝试例如对话式聊天机器人,过渡到内容、图像、视频等多媒体内容生成,以及数据洞察与决策等。亚马逊云科技将从客户需求出发,满足客户不同应用场景的痛点与诉求,助力客户构建数字化解决方案。”

在生成式AI的浅水区,重点是找到新技术应用于业务的广度覆盖;在生成式AI的深水区,重点是弥合新技术和业务的认知鸿沟,也就格外需要云平台企业,做中间一层的行业化,弥补大模型落地的版图。

从底层的芯片、云服务,到中间层的模型,再到最上层的应用,整个大模型产业链的各个环节之间,如同互相嵌合连接的精密传动仪器,任何一个环节的进步与迭代,都会掀起整个市场的涟漪不断传导扩散。

其中,云服务等基础设施范式的存在,如同整个板块的地基。上层的算法应用越想改变世界,最底层的地基就要越稳固。

尽管基础大模型的能力提升已将AI应用开发从“最后1公里”推进到“最后100米”,但开发AI应用仍然面临诸多挑战,这正是云计算平台从技术走向服务的重要意义所在。云计算的进步,也是整个大模型产业链不断向前飞奔过程中,被极大低估的一环。在未来生成式AI持续发展的进程中,云计算将进一步与之深度融合,助力其释放出更大潜能,为千行百业开启更具想象力的数字化篇章。

【关于科技云报到】

企业级IT领域Top10新媒体。聚焦云计算、人工智能、大模型、网络安全、大数据、区块链等企业级科技领域。原创文章和视频获工信部权威认可,是世界人工智能大会、数博会、国家网安周、可信云大会与全球云计算等大型活动的官方指定传播媒体之一。

相关文章
|
13天前
|
人工智能 前端开发 Docker
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
在 AI 智能体开发中,开发者常面临本地调试与云端部署的矛盾。本文介绍如何通过 Docker Compose 与 Docker Offload 解决这一难题,实现从本地快速迭代到云端高效扩容的全流程。内容涵盖多服务协同、容器化配置、GPU 支持及实战案例,助你构建高效、一致的 AI 智能体开发环境。
169 0
从本地到云端:用 Docker Compose 与 Offload 构建可扩展 AI 智能体
|
20天前
|
机器学习/深度学习 人工智能 计算机视觉
让AI真正"看懂"世界:多模态表征空间构建秘籍
本文深入解析多模态学习的两大核心难题:多模态对齐与多模态融合,探讨如何让AI理解并关联图像、文字、声音等异构数据,实现类似人类的综合认知能力。
164 6
|
8天前
|
SQL 人工智能 Linux
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
116 5
SQL Server 2025 RC1 发布 - 从本地到云端的 AI 就绪企业数据库
|
12天前
|
机器学习/深度学习 人工智能 机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
AI Compass前沿速览:Nano Bananary、MCP Registry、通义DeepResearch 、VoxCPM、InternVLA·M1具身机器人
|
10天前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
103 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
9天前
|
存储 人工智能 监控
如何用RAG增强的动态能力与大模型结合打造企业AI产品?
客户的问题往往涉及最新的政策变化、复杂的业务规则,数据量越来越多,而大模型对这些私有知识和上下文信息的理解总是差强人意。
40 2
|
10天前
|
人工智能 自然语言处理 算法
现代AI工具深度解析:从GPT到多模态的技术革命与实战应用
蒋星熠Jaxonic,AI技术探索者,深耕代码生成、多模态AI与提示词工程。分享AI工具架构、实战应用与优化策略,助力开发者提升效率,共赴智能编程新纪元。
|
13天前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
170 3
|
25天前
|
人工智能 编解码 数据可视化
原生支持QwenImage!FlowBench 正式开启公测!本地 + 云端双模生图,AI创作更自由
FlowBench 是由 ModelScope x Muse 团队打造的一站式 AI 工作流创作平台,现已开启全面公测。该平台以工作流为核心,支持本地与云端资源协同运行,面向开发者、设计师及 AI 创作者提供高效、稳定、易用的可视化创作体验。FlowBench 原生支持 QwenImage 图像生成模型,最低仅需 8GB 显存即可实现本地生图,并支持多 LoRA 融合、多图批量生成等强大功能。用户可在 Mac 和 Windows 系统下载使用,同时享受云端与本地自由切换带来的灵活体验。公测期间,FlowBench 团队将持续优化功能,推出更多创新特性,助力用户开启高效 AI 创作之旅。
224 11
|
22天前
|
人工智能 API
阿里云百炼API-KEY在哪查询?如何获取阿里云AI百炼大模型的API-KEY?
阿里云百炼是阿里云推出的AI大模型平台,用户可通过其管理控制台获取API-KEY。需先开通百炼平台及大模型服务,即可创建并复制API-KEY。目前平台提供千万tokens免费额度,详细操作流程可参考官方指引。

热门文章

最新文章