飞天技术沙龙回顾:业务创新新选择,倚天Arm架构深入探讨

本文涉及的产品
RDS MySQL Serverless 基础系列,0.5-2RCU 50GB
EMR Serverless StarRocks,5000CU*H 48000GB*H
云数据库 RDS PostgreSQL,高可用系列 2核4GB
简介: 阿里云、平头哥与Arm联合举办的飞天技术沙龙在上海举行,聚焦Arm Neoverse核心优势和倚天710计算实例在大数据、视频领域的应用。活动中,专家解读了倚天710的性能提升和成本效益,强调了CIPU云原生基础设施处理器的角色,以及如何通过软件优化实现资源池化和稳定性平衡。实例展示在视频编码和大数据处理上的性能提升分别达到80%和70%的性价比优化。沙龙吸引众多企业代表参与,促进技术交流与实践解决方案的探讨。

飞天技术沙龙_倚天专场精彩回顾



5月16日,由阿里云、平头哥及Arm共同主办的飞天技术沙龙《业务创新新选择,倚天Arm架构深入探索》在上海成功举行。活动现场,三方的技术专家深入解读了Arm Neoverse 的核心优势,并重点分享了基于倚天710的计算实例g8y在大数据和视频领域优化的最佳实践,以帮助企业用户了解倚天ECS实例如何在成本、效率方面提供助力。


基于「倚天710自研芯片+CIPU云原生基础设施处理器」组合的倚天ECS实例为解决算力挑战提供新的思路,最重要的转变是使得过去从单物理机视角转换成了资源池化的视角,以CIPU为中心重新思考解决很多过去看起来很棘手的问题,很好地平衡了稳定性、成本等方面的问题,从而使得客户在享受高性能的同时也享受到高稳定性。


张伟.jpg

图:安谋科技 (Arm China) 服务器生态高级经理 张伟


别再平.jpg

图:安谋科技 (Arm China) 高级软件经理 别再平


安谋科技 (Arm China) 服务器生态高级经理张伟与高级软件经理别再平共同分享了《Arm Neoverse平台趋势与技术优势》的主题演讲,介绍了Arm Neoverse平台的产品路线图、Neoverse 计算子系统 (CSS) ,及其软件生态系统,并列举了基于Arm架构的倚天710的性能优势,以及在Arm平台上进行性能调优的工具和方法。


钱春阳.jpg

图:平头哥倚天产品线客户经理 钱春阳


平头哥倚天产品线客户经理钱春阳发表了《面向场景:倚天芯片软件加速方案解析》 的主题演讲,以大数据和视频编解码领域为例详细介绍了倚天ECS实例软件加速工具进展和业务实测性能数据,让与会嘉宾直观感受到倚天软件加速方案带来的显著收益。


雷组.jpg

图:阿里云倚天ECS架构负责人张先国


阿里云倚天ECS架构负责人张先国则分享了《倚天ECS:应用迁移与性能优化秘籍》,内容覆盖从Arm CPU架构特点、到C、Java应用性能优势、软件迁移,以及视频编码场景、大数据场景的最佳实践。其中,他详细讲解了倚天ECS实例通过OS优化、APP编译优化等技术突破内存墙;并通过重新定义CPU水位发挥倚天低功耗线性度优势。根据最佳实践的数据显示,相比g7实例,倚天ECS在视频编码场景中实现了性价比提高约80%,在大数据处理场景上,性能提高了超过70%。


李珂.jpg

图:千寻位置运维专家李轲韡


千寻位置运维专家李轲韡分享了《阿里云倚天在时空智能服务上的规模化应用》主题演讲,重点分享了千寻位置的核心业务迁移至倚天ECS实例的最佳实践以及迁移的经验。谈到为什么要迁移到倚天ECS实例平台上时,李轲韡表示:“倚天710处理器是一个能效非常高的处理器,可以用少量的研发资源投入,实现一个比较高性价比的产出,通过这种技术的演进路线,可以有效降低阿里云上的云资源成本。”


曹理发.jpg

图:阿里云高级技术专家曹理发


阿里云高级技术专家曹理发表了主题为《Arm架构在阿里巴巴规模应用实践技术分享》的演讲,分享了倚天ECS实例在阿里巴巴规模化应用的实践经验,重点分享了Java应用和C++的业务是如何迁移至倚天ECS实例,以及性能优化方面的最佳实践。


合照.jpg


来自上海及华东地区的数十家企业研发代表踊跃报名参加沙龙活动,现场近距离与倚天技术专家探讨交流业务问题和技术发展。沙龙还特意设置了分组交流环节,深入了解企业一线实际业务问题,提供更具体、更有针对性的解决方案,让交流更落地、技术更务实。


相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
1月前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
259 61
|
7天前
|
运维 Kubernetes Cloud Native
智联招聘 × 阿里云 ACK One:云端弹性算力颠覆传统 IDC 架构,打造春招技术新范式
在 2025 年春季招聘季的激战中,智联招聘凭借阿里云 ACK One 注册集群与弹性 ACS 算力的深度融合,成功突破传统 IDC 机房的算力瓶颈,以云上弹性架构支撑千万级用户的高并发访问,实现招聘服务效率与稳定性的双重跃升。
|
1月前
|
人工智能 缓存 自然语言处理
Bolt DIY架构揭秘:从模型初始化到响应生成的技术之旅
在使用Bolt DIY或类似的AI对话应用时,你是否曾好奇过从输入提示词到获得回答的整个过程是如何运作的?当你点击发送按钮那一刻,背后究竟发生了什么?本文将揭开这一过程的神秘面纱,深入浅出地解析AI对话系统的核心技术架构。
69 5
|
9天前
|
数据采集 存储 算法
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
47 2
人才招聘系统开发全解析:从技术底层到商业逻辑的完整架构优雅草卓伊凡|小无|果果|阿才
|
21天前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
98 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
15天前
|
存储 人工智能 自然语言处理
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
本文深入探讨了混合专家(MoE)架构在大型语言模型中的应用与技术原理。MoE通过稀疏激活机制,在保持模型高效性的同时实现参数规模的大幅扩展,已成为LLM发展的关键趋势。文章分析了MoE的核心组件,包括专家网络与路由机制,并对比了密集与稀疏MoE的特点。同时,详细介绍了Mixtral、Grok、DBRX和DeepSeek等代表性模型的技术特点及创新。MoE不仅解决了传统模型扩展成本高昂的问题,还展现出专业化与适应性强的优势,未来有望推动AI工具更广泛的应用。
51 4
为什么混合专家模型(MoE)如此高效:从架构原理到技术实现全解析
|
2月前
|
弹性计算 负载均衡 网络协议
阿里云SLB深度解析:从流量分发到架构优化的技术实践
本文深入探讨了阿里云负载均衡服务(SLB)的核心技术与应用场景,从流量分配到架构创新全面解析其价值。SLB不仅是简单的流量分发工具,更是支撑高并发、保障系统稳定性的智能中枢。文章涵盖四层与七层负载均衡原理、弹性伸缩引擎、智能DNS解析等核心技术,并结合电商大促、微服务灰度发布等实战场景提供实施指南。同时,针对性能调优与安全防护,分享连接复用优化、DDoS防御及零信任架构集成的实践经验,助力企业构建面向未来的弹性架构。
259 76
|
2月前
|
人工智能 自然语言处理 API
MCP与A2A协议比较:人工智能系统互联与协作的技术基础架构
本文深入解析了人工智能领域的两项关键基础设施协议:模型上下文协议(MCP)与代理对代理协议(A2A)。MCP由Anthropic开发,专注于标准化AI模型与外部工具和数据源的连接,降低系统集成复杂度;A2A由Google发布,旨在实现不同AI代理间的跨平台协作。两者虽有相似之处,但在设计目标与应用场景上互为补充。文章通过具体示例分析了两种协议的技术差异及适用场景,并探讨了其在企业工作流自动化、医疗信息系统和软件工程中的应用。最后,文章强调了整合MCP与A2A构建协同AI系统架构的重要性,为未来AI技术生态系统的演进提供了方向。
595 62
|
18天前
|
存储 SQL 关系型数据库
Doris架构中包含哪些技术?
Observer节点仅从leader节点进行元数据同步,不参与选举。可以横向扩展以提供元数据的读服务的扩展性。 数据的可靠性由BE保证,BE会对整个数据存储多副本或者是三副本。副本数可根据需求动态调整。
|
23天前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
91 4

热门文章

最新文章