一文回顾2024龙蜥大会生态案例分论坛都有哪些精彩瞬间(附PPT下载)

简介: 高亮一览。

近日,2024 龙蜥操作系统大会(OpenAnolis Conference)在北京盛大举办。 同时,由阿里云智能集团产品总监张鹏程、龙蜥社区品牌负责人孙林林联合出品的生态案例分论坛也圆满举办。本次分论坛上,来自阿里云、AMD、澜起科技、统信软件、中科方德、联通软件研究院、中科曙光、浪潮信息、中国移动等企业超 10 位大咖,围绕龙蜥社区硬件层面“一云多芯”的实践成果,以及在软件层面,龙蜥社区如何坚持“继往开来”演化创新等技术话题进行分享,并邀请统信软件产品行销部总监任紫东、中科方德系统解决方案总监贺春妮、联通软件研究院高级工程师肖微等业界大咖就“CentOS 停服替换的挑战与实践”展开深度探讨,助力存量应用生态应对 CentOS 停服挑战,推动创新应用生态迎接“云+AI”的智算时代浪潮发展。


(图/生态案例分论坛现场合照)


阿里云智能集团资深总监、龙蜥社区运营委员会主席陈绪开场致辞。陈绪强调了生态建设对产业发展的关键作用,回顾了阿里云在龙蜥操作系统社区创立过程中与理事单位及合作伙伴共生共荣的历史,说明构建一站式服务生态,吸引企业和开发者参与的重要性。同时,陈绪希望各龙蜥生态伙伴携手,共同促进社区的繁荣发展,在 CentOS 迁移大潮下,有更多成熟的标杆案例落地;更希望在未来的 AI 发展过程中,龙蜥操作系统能够与 AI 深度融合,助力 AI 大模型发展,带来更大的商业成功。


(图/陈绪)


澜起科技应用工程经理蔡仲斐做了《基于龙蜥的高性能可信计算实践》主题演讲。M88STAR5(N)芯片是澜起科技在数据保护和平台可信度量领域多年沉淀的产品化成果。凭借 Mont-TSSE® 可信安全系统扩展架构,澜起将硬件级数据加解密和可信度量两大功能融合于一颗单一芯片上。该芯片硬件支持国密和国际主流加解密算法,片内集成多个 TRNG,搭配 PCIe 5.0 接口提供高达 160Gbps 吞吐量。芯片采用紧凑型封装技术,可直接安装于服务器主板上,或通过 AIC 卡方式集成多颗芯片,实现加密处理能力倍增。芯片兼容 TPM、TCM 和 TPCM 可信计算相关标准,可作为硬件信任根(HRoT)使用,满足可信平台 3.0 规范的需求。


(图/蔡仲斐)


中科方德的服务器产品方案通过高可信服务器操作系统,满足了政务、金融、教育和通信等行业对服务器操作系统的稳定性、安全性和可靠性要求。中科方德系统解决方案总监贺春妮分享了《中科方德服务器产品方案与实践》主题演讲,方德系统全面适配国内主流 CPU,支持云计算和智能计算环境,兼容物理机和虚拟机,支持国密SM2/SM3/SM4算法,并通过了GB/T 20272四级安全操作系统认证。此外,方德操作系统提供了从 CentOS 迁移到其高可信服务器操作系统的解决方案,支持一键批量迁移,保留应用程序和系统配置,确保业务不中断。同时,方德操作系统集成了可信计算和安全增强机制,构建了全面的安全支撑平台,满足数字化转型需求。


(图/贺春妮)


统信软件高级产品经理郝成带来了《统信商业发行版在CentOS的迁移实践分享》。郝成表示,统信“3+3+6”迁移解决方案,依托龙蜥操作系统衍生版统信服务器操作系统 V20,基于大型央企及金融、运营商、部委等垂直行业的 CentOS 试点迁移的经验积累,覆盖用户服务器操作系统迁移全场景,CentOS 替换实践案例分享。


(图/郝成)


中科曙光系统工程师纪笑旭现场分享了《Anolis OS 基于国产硬件平台 AI 大模型部署实践》。随着人工智能技术的迅速发展,大模型的部署使用需求日益增长,特别是对于国产化需求旺盛的背景下,在国产硬件平台上高效部署 AI 大模型成为一个关键问题。会上,纪笑旭介绍了 Anolis OS 在国产硬件环境下的 AI 大模型部署流程并分享了部分典型应用案例。


(图/纪笑旭)


浪潮信息资深基础设施运维产品架构师张玉峰分享了《基于龙蜥系统构建物理基础设施 IaC 解决方案在国芯体系的应用》。在国产服务器不同芯片技术体系下,浪潮信息针对鲲鹏、飞腾、龙芯、海光、兆芯、申威等主流国产 CPU 架构下的 IT 基础设施运维管理进行了系统性分析研究,涵盖了计算、存储、网络及安全等核心硬件设施,旨在构建多芯异构平台下的统一管理与一致性解决方案,完成了对各国产 CPU 架构下 IT 基础设施管理技术、关键管理参数及管理协议的全面梳理与深入剖析。浪潮信息基于龙蜥操作系统 Anolis OS,构建了多芯异构平台下的管理适配策略与一致性优化解决方案,并在多个行业客户中应用,取得显著的实践成果,有效解决了跨架构管理的复杂性与碎片化问题。


(图/张玉峰)


中国移动推出“芯巢多样性算力孵化平台”是一个旨在推动产业链创新和算力网络产业发展的重要项目。"芯巢"平台的构建基于“1 套多样性芯片评测标准”、“3 大核心孵化能力”和“1 条自动化流水线”的‘131’体系,为数据中心服务器芯片或部件提供定制化、全周期、高价值的服务能力。中国移动研究院网络所技术经理李锴分享了《芯巢平台工具集介绍,助力算力发展》。李锴表示,“芯巢”平台的推出,不仅有助于提升芯片或部件产品能力,促进业务快速发展,而且通过提供真实业务需求牵引的芯片或部件研发及优化,助力芯片能力提升与业务的紧密结合。


(图/李锴)


当下,CentOS 迁移潮无疑是业界最受关注的事件之一,如何确保系统平滑、高效、有保障地迁移到国产操作系统是企业亟待解决的重中之重。会上,由阿里云智能集团产品总监张鹏程主持,统信软件产品行销部总监任紫东、中科方德系统解决方案总监贺春妮、联通软件研究院高级工程师肖微 3 位业界资深大咖,围绕“CentOS 停服替换的挑战与实践”展开讨论。三位嘉宾从 CentOS 迁移选型、面临的挑战及 CentOS 迁移过程中面临的关键因素和策略等角度发表了各自的看法。统信软件产品行销部总监任紫东呼吁更多同行加入龙蜥社区“三大计划”中的“CentOS 替代计划”,推动国产操作系统实现从开源到商业化的良性循环发展。中科方德系统解决方案总监贺春妮认为在迁移过程中,确保不失败的关键在于前期的分析调研和模拟验证。同时,她也着重强调了操作系统的安全是重中之重,并表示在 CentOS 停服替换浪潮下,中科方德携手龙蜥社区继续前行,积极贡献自身在安全等方面的经验。联通软件研究院高级工程师肖微从联通视角出发,分享了其在国产操作系统迁移过程中遇到的问题与解决策略,强调了建立沉淀机制和使用迁移工具的重要性。同时,提到了龙蜥社区为迁移制定的标准和指南,希望这些经验和教训能对行业有指引作用。


(图/圆桌讨论环节)


感谢本次分论坛出品团队:张鹏程、孙林林、李姝慧、张天佳、王云志、张梦娇、施子安、崔开、张旭芳。

视频回放、课件获取:

「生态案例分论坛」直播回放及技术 PPT上线啦,欢迎点击下方链接观看:

https://openanolis.cn/video/#1202533973562084662

技术 PPT :关注龙蜥公众号【OpenAnolis 龙蜥】,回复“龙蜥课件”获取。

—— 完 ——

相关文章
|
6月前
|
人工智能 智能设计 安全
2024云栖大会《设计的未来&未来的设计》全记录
2024云栖大会《设计的未来&未来的设计》全记录
|
10月前
|
存储 人工智能 运维
龙蜥副理事长张东:加速推进 AI+OS 深度融合,打造最 AI 的服务器操作系统
操作系统如何满足 AI 应用场景需求?未来发展趋势如何?
|
9月前
|
存储 SQL 缓存
Flink 2.0 存算分离状态存储 — ForSt DB 
本文整理自阿里云技术专家兰兆千在Flink Forward Asia 2024上的分享,主要介绍Flink 2.0的存算分离架构、全新状态存储内核ForSt DB及工作进展与未来展望。Flink 2.0通过存算分离解决了本地磁盘瓶颈、检查点资源尖峰和作业恢复速度慢等问题,提升了云原生部署能力。ForSt DB作为嵌入式Key-value存储内核,支持远端读写、批量并发优化和快速检查点等功能。性能测试表明,ForSt在异步访问和本地缓存支持下表现卓越。未来,Flink将继续完善SQL Operator的异步优化,并引入更多流特性支持。
963 88
Flink 2.0 存算分离状态存储 — ForSt DB 
|
12月前
|
人工智能 Cloud Native Serverless
2024云栖大会资料精选,《云原生+AI核心技术&最佳实践》PPT全量放送!
关注阿里云云原生公众号,后台回复:2024 云栖大会,即可免费下载云原生云栖大会核心资料合集。
2483 35
|
10月前
|
人工智能 供应链 安全
|
10月前
|
存储 分布式计算 流计算
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
本文介绍了阿里云开源大数据团队在实时计算领域的最新成果——向量化流计算引擎Flash。文章主要内容包括:Apache Flink 成为业界流计算标准、Flash 核心技术解读、性能测试数据以及在阿里巴巴集团的落地效果。Flash 是一款完全兼容 Apache Flink 的新一代流计算引擎,通过向量化技术和 C++ 实现,大幅提升了性能和成本效益。
3227 73
实时计算 Flash – 兼容 Flink 的新一代向量化流计算引擎
|
8月前
|
缓存 NoSQL 调度
Tair:基于KV缓存的推理加速服务
Tair 是阿里云基于KV缓存的推理加速服务,旨在优化大模型推理过程中的性能与资源利用。内容分为三部分:首先介绍大模型推理服务面临的挑战,如性能优化和服务化需求;其次讲解Nvidia TensorRT-LLM推理加速库的特点,包括高性能、功能丰富和开箱即用;最后重点介绍基于KVCache优化的推理加速服务,通过Tair的KV缓存技术提升推理效率,特别是在处理长上下文和多人对话场景中表现出色。整体方案结合了硬件加速与软件优化,实现了显著的性能提升和成本降低。
830 3
|
10月前
|
人工智能 Kubernetes 云计算
第五届CID大会成功举办,阿里云基础设施加速AI智能产业发展!
第五届中国云计算基础架构开发者大会(CID)于2024年10月19日在北京成功举办。大会汇聚了300多位现场参会者和超过3万名在线观众,30余位技术专家进行了精彩分享,涵盖高效部署大模型推理、Knative加速AI应用Serverless化、AMD平台PMU虚拟化技术实践、Kubernetes中全链路GPU高效管理等前沿话题。阿里云的讲师团队通过专业解读,为与会者带来了全新的视野和启发,推动了云计算技术的创新发展。
|
11月前
|
存储 人工智能 数据处理
Data+AI双轮驱动,阿里云存储服务全面升级
近日,2024云栖大会现场,阿里云宣布对其存储服务进行全面升级,围绕 Storage for AI 与 AI in Storage 两大领域,提出“4 Any + 3 AI ”的升级方向,揭示存储基础设施与AI的双向赋能路径。阿里云存储产品将支持更多AI业务高效创新, 同时 AI 技术也将助力基础设施迭代,支持企业更好地管理数据资产。
1329 10