飞天技术沙龙回顾:业务创新新选择,倚天Arm架构深入探讨

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 基于「倚天710自研芯片+CIPU云原生基础设施处理器」组合的倚天ECS实例为解决算力挑战提供新思路。

【阅读原文】戳:飞天技术沙龙回顾:业务创新新选择,倚天Arm架构深入探讨

5月16日,由阿里云、平头哥及Arm共同主办的飞天技术沙龙《业务创新新选择,倚天Arm架构深入探索》在上海成功举行。活动现场,三方的技术专家深入解读了Arm Neoverse 的核心优势,并重点分享了基于倚天710的计算实例g8y在大数据和视频领域优化的最佳实践,以帮助企业用户了解倚天ECS实例如何在成本、效率方面提供助力。

 

基于「倚天710自研芯片+CIPU云原生基础设施处理器」组合的倚天ECS实例为解决算力挑战提供新的思路,最重要的转变是使得过去从单物理机视角转换成了资源池化的视角,以CIPU为中心重新思考解决很多过去看起来很棘手的问题,很好地平衡了稳定性、成本等方面的问题,从而使得客户在享受高性能的同时也享受到高稳定性。

 

图丨安谋科技 (Arm China) 服务器生态高级经理张伟

 

图丨安谋科技 (Arm China) 高级软件经理别再平

 

安谋科技 (Arm China) 服务器生态高级经理张伟高级软件经理别再平共同分享了《Arm Neoverse平台趋势与技术优势》的主题演讲,介绍了Arm Neoverse平台的产品路线图、Neoverse 计算子系统 (CSS) ,及其软件生态系统,并列举了基于Arm架构的倚天710的性能优势,以及在Arm平台上进行性能调优的工具和方法。

 

图丨平头哥倚天产品线客户经理钱春阳

 

平头哥倚天产品线客户经理钱春阳发表了《面向场景:倚天芯片软件加速方案解析》 的主题演讲,以大数据和视频编解码领域为例详细介绍了倚天ECS实例软件加速工具进展和业务实测性能数据,让与会嘉宾直观感受到倚天软件加速方案带来的显著收益。

 

图丨阿里云倚天ECS架构负责人张先国

 

阿里云倚天ECS架构负责人张先国则分享了《倚天ECS:应用迁移与性能优化秘籍》,内容覆盖从Arm CPU架构特点、到C、Java应用性能优势、软件迁移,以及视频编码场景、大数据场景的最佳实践。其中,他详细讲解了倚天ECS实例通过OS优化、APP编译优化等技术突破内存墙;并通过重新定义CPU水位发挥倚天低功耗线性度优势。根据最佳实践的数据显示,相比g7实例,倚天ECS在视频编码场景中实现了性价比提高约80%,在大数据处理场景上,性能提高了超过70%。

 

 

图丨千寻位置运维专家李轲韡

 

千寻位置运维专家李轲韡分享了《阿里云倚天在时空智能服务上的规模化应用》主题演讲,重点分享了千寻位置的核心业务迁移至倚天ECS实例的最佳实践以及迁移的经验。谈到为什么要迁移到倚天ECS实例平台上时,李轲韡表示:“倚天710处理器是一个能效非常高的处理器,可以用少量的研发资源投入,实现一个比较高性价比的产出,通过这种技术的演进路线,可以有效降低阿里云上的云资源成本。”

 

图丨阿里云高级技术专家曹理发

 

阿里云高级技术专家曹理发带来了主题为《Arm架构在阿里巴巴规模应用实践技术分享》的演讲,分享了倚天ECS实例在阿里巴巴规模化应用的实践经验,重点分享了Java应用和C++的业务是如何迁移至倚天ECS实例,以及性能优化方面的最佳实践。

 

 

来自上海及华东地区的数十家企业研发代表踊跃报名参加沙龙活动,现场近距离与倚天技术专家探讨交流业务问题和技术发展。沙龙还特意设置了分组交流环节,深入了解企业一线实际业务问题,提供更具体、更有针对性的解决方案,让交流更落地、技术更务实。


我们是阿里巴巴云计算和大数据技术幕后的核心技术输出者。

欢迎关注 “阿里云基础设施”同名微信微博知乎

获取关于我们的更多信息~


相关实践学习
借助OSS搭建在线教育视频课程分享网站
本教程介绍如何基于云服务器ECS和对象存储OSS,搭建一个在线教育视频课程分享网站。
7天玩转云服务器
云服务器ECS(Elastic Compute Service)是一种弹性可伸缩的计算服务,可降低 IT 成本,提升运维效率。本课程手把手带你了解ECS、掌握基本操作、动手实操快照管理、镜像管理等。了解产品详情: https://www.aliyun.com/product/ecs
相关文章
|
10天前
|
存储 机器学习/深度学习 数据库
阿里云服务器X86/ARM/GPU/裸金属/超算五大架构技术特点、场景适配参考
在云计算技术飞速发展的当下,云计算已经渗透到各个行业,成为企业数字化转型的关键驱动力。选择合适的云服务器架构对于提升业务效率、降低成本至关重要。阿里云提供了多样化的云服务器架构选择,包括X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器以及高性能计算等。本文将深入解析这些架构的特点、优势及适用场景,以供大家了解和选择参考。
175 61
|
12天前
|
人工智能 缓存 自然语言处理
Bolt DIY架构揭秘:从模型初始化到响应生成的技术之旅
在使用Bolt DIY或类似的AI对话应用时,你是否曾好奇过从输入提示词到获得回答的整个过程是如何运作的?当你点击发送按钮那一刻,背后究竟发生了什么?本文将揭开这一过程的神秘面纱,深入浅出地解析AI对话系统的核心技术架构。
47 5
|
22小时前
|
机器学习/深度学习 人工智能 算法
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
该研究系统梳理了大型多模态推理模型(LMRMs)的技术发展,从早期模块化架构到统一的语言中心框架,提出原生LMRMs(N-LMRMs)的前沿概念。论文划分三个技术演进阶段及一个前瞻性范式,深入探讨关键挑战与评估基准,为构建复杂动态环境中的稳健AI系统提供理论框架。未来方向聚焦全模态泛化、深度推理与智能体行为,推动跨模态融合与自主交互能力的发展。
25 13
大型多模态推理模型技术演进综述:从模块化架构到原生推理能力的综合分析
|
1月前
|
弹性计算 负载均衡 网络协议
阿里云SLB深度解析:从流量分发到架构优化的技术实践
本文深入探讨了阿里云负载均衡服务(SLB)的核心技术与应用场景,从流量分配到架构创新全面解析其价值。SLB不仅是简单的流量分发工具,更是支撑高并发、保障系统稳定性的智能中枢。文章涵盖四层与七层负载均衡原理、弹性伸缩引擎、智能DNS解析等核心技术,并结合电商大促、微服务灰度发布等实战场景提供实施指南。同时,针对性能调优与安全防护,分享连接复用优化、DDoS防御及零信任架构集成的实践经验,助力企业构建面向未来的弹性架构。
209 76
|
1月前
|
人工智能 自然语言处理 API
MCP与A2A协议比较:人工智能系统互联与协作的技术基础架构
本文深入解析了人工智能领域的两项关键基础设施协议:模型上下文协议(MCP)与代理对代理协议(A2A)。MCP由Anthropic开发,专注于标准化AI模型与外部工具和数据源的连接,降低系统集成复杂度;A2A由Google发布,旨在实现不同AI代理间的跨平台协作。两者虽有相似之处,但在设计目标与应用场景上互为补充。文章通过具体示例分析了两种协议的技术差异及适用场景,并探讨了其在企业工作流自动化、医疗信息系统和软件工程中的应用。最后,文章强调了整合MCP与A2A构建协同AI系统架构的重要性,为未来AI技术生态系统的演进提供了方向。
508 62
|
2天前
|
人工智能 负载均衡 API
长连接网关技术专题(十二):大模型时代多模型AI网关的架构设计与实现
随着 AI 技术快速发展,业务对 AI 能力的渴求日益增长。当 AI 服务面对处理大规模请求和高并发流量时,AI 网关从中扮演着至关重要的角色。AI 服务通常涉及大量的计算任务和设备资源占用,此时需要一个 AI 网关负责协调这些请求来确保系统的稳定性与高效性。因此,与传统微服务架构类似,我们将相关 API 管理的功能(如流量控制、用户鉴权、配额计费、负载均衡、API 路由等)集中放置在 AI 网关层,可以降低系统整体复杂度并提升可维护性。 本文要分享的是B站在大模型时代基于多模型AI的网关架构设计和实践总结,希望能带给你启发。
28 4
|
1月前
|
机器学习/深度学习 传感器 自然语言处理
基于Transformer架构的时间序列数据去噪技术研究
本文介绍了一种基于Transformer架构的时间序列去噪模型。通过生成合成数据训练,模型在不同噪声条件下展现出强去噪能力。文章详细解析了Transformer的输入嵌入、位置编码、自注意力机制及前馈网络等关键组件,并分析实验结果与注意力权重分布。研究为特定任务的模型优化和专业去噪模型开发奠定了基础。
141 14
基于Transformer架构的时间序列数据去噪技术研究
|
1月前
|
存储 消息中间件 SQL
数据中台架构与技术体系
本文介绍了数据中台的整体架构设计,涵盖数据采集、存储、计算、服务及治理等多个层面。在数据采集层,通过实时与离线方式整合多类型数据源;存储层采用分层策略,包括原始层、清洗层、服务层和归档层,满足不同访问频率需求;计算层提供批处理、流处理、交互式分析和AI计算能力,支持多样化业务场景。数据服务层封装数据为标准化API,实现灵活调用,同时强调数据治理与安全,确保元数据管理、质量监控、权限控制及加密措施到位,助力企业构建高效、合规的数据管理体系。
|
29天前
|
存储 机器学习/深度学习 算法
阿里云X86/ARM/GPU/裸金属/超算等五大服务器架构技术特点、场景适配与选型策略
在我们选购阿里云服务器的时候,云服务器架构有X86计算、ARM计算、GPU/FPGA/ASIC、弹性裸金属服务器、高性能计算可选,有的用户并不清楚他们之间有何区别。本文将深入解析这些架构的特点、优势及适用场景,帮助用户更好地根据实际需求做出选择。
|
2月前
|
机器学习/深度学习 缓存 自然语言处理
深入解析Tiktokenizer:大语言模型中核心分词技术的原理与架构
Tiktokenizer 是一款现代分词工具,旨在高效、智能地将文本转换为机器可处理的离散单元(token)。它不仅超越了传统的空格分割和正则表达式匹配方法,还结合了上下文感知能力,适应复杂语言结构。Tiktokenizer 的核心特性包括自适应 token 分割、高效编码能力和出色的可扩展性,使其适用于从聊天机器人到大规模文本分析等多种应用场景。通过模块化设计,Tiktokenizer 确保了代码的可重用性和维护性,并在分词精度、处理效率和灵活性方面表现出色。此外,它支持多语言处理、表情符号识别和领域特定文本处理,能够应对各种复杂的文本输入需求。
310 6
深入解析Tiktokenizer:大语言模型中核心分词技术的原理与架构

热门文章

最新文章