英特尔平台上的功耗性能优化
功耗与性能在许多情况下存在竞争关系,但二者并非总是互斥的。通过合理分配各组件间的功耗,可以有效提升整体性能表现。英特尔高级工程师张锐分享了《英特尔平台上的功耗性能优化》,与现场嘉宾深入探讨了近期基于最新英特尔平台在龙蜥社区中开展的功耗相关工作,并阐述了这些工作的必要性,以及如何运用这些技术来优化功耗管理并提升系统性能。
从主线到龙蜥的内核创新,驱动下一代 AMD EPYC 计算平台
阿里云智能集团技术专家冯光辉、AMD 资深内核专家舒明联合分享了《从主线到龙蜥的内核创新,驱动下一代 AMD EPYC 计算平台》。冯光辉介绍了 AMD Genoa、Turin 等平台在龙蜥操作系统中的适配现状,重点展示 INVLPGB、Bus Lock Trap、IBS 等高阶能力的落地情况,并分享了未来在 I/O 加速、SEV-SNP 机密计算等方向的社区支持计划。舒明则全面分享了 AMD EPYC 在开源生态中的技术投入与创新成果,涵盖从 Linux Kernel 上游社区的前沿开发进展到龙蜥社区的产品化支持;也深入解析了 AMD 工程师在 Linux Kernel Upstream 社区的最新补丁进展,包括 SDCI、PML、SDXI、vIOMMU 等关键特性,探讨其在实际应用中的价值与对下一代 AMD CPU 的支持。
基于 io_uring 和双 virtqueue 队列的 virtio-blk 数据通路加速方案
阿里云智能集团研发工程师孟繁瑞分享了《基于 io_uring 和双 virtqueue 队列的 virtio-blk 数据通路加速方案》。孟繁瑞提到,阿里云操作系统团队联合 CIPU、盘古等团队,基于 io_uring 的直通能力和 vring pair 的队列设计,改造了 virtio-blk 内核驱动,赋予了用户态程序直接构造 virtio-blk 命令的能力,不仅拓展了 virtio-blk 设备的功能边界,也为基于此技术的后端存储解决方案带来了更大的灵活性和扩展性,为公有云、分布式存储等场景提供了较好的弹性、可并发性和大吞吐能力。目前,这些特性已经合入了 ANCK-5.10 和 ANCK-6.6 中,即将随业务灰度上线。
具身智能场景下端到端确定性挑战与思考|龙蜥MeetUp
探讨了具身智能系统,其核心在于构建紧密耦合的“感知-融合-决策-执行”闭环,使机器能实时理解并作用于物理世界。指出实现面临的主要挑战:需达成高实时性、强鲁棒性的多模态感知融合,并进行高效动态决策与控制。该演讲以智能机器人为核心示例,聚焦基于Ubuntu + ROS2构建的主流机器人操作系统生态,探讨了OS在具身智能中的关键角色及其面临的端到端确定性问题。
Co-Sight:基于多 Agent 动态规划与分层反思的下一代 AI 决策系统|龙蜥MeetUp
探讨了AI技术应用于复杂任务时,传统大语言模型(LLM)在动作决策和多步推理上的局限性。构建具备自主规划与动态纠偏能力的智能体系统成为关键挑战。中兴通讯介绍了其Co-Sight框架,该框架通过多Agent协同架构(Plan-Actor-Memory)实现任务降维,结合实时上下文精炼消除冗余,并依托分层反思系统生成奖惩信号以动态优化DAG执行路径。其核心创新在于关注点分离与闭环反思机制。在GAIA评测中,Co-Sight以72.73%综合得分超越Google DeepMind与OpenAI,在复杂多步任务(L2级)中稳定性显著领先。
Mooncake 大模型开源生态体系建设与产业应用实践|龙蜥MeetUp
介绍了大模型推理架构Mooncake。该架构通过创新的KVCache中心设计,显著提升了Kimi智能助手的推理吞吐和成本效率,已引起业界广泛关注。近期,清华大学与阿里云等多家企业宣布共建Mooncake项目,旨在构建高性能推理框架的开源生态。阿里云与清华大学共同探索了大模型资源池化技术的工业应用,推动推理实例共享与缓存池化层标准化,实现高效分布式资源解耦,提升大模型长上下文推理性能。目前Mooncake已在vLLM/SGLang等多个推理框架集成,并在多家企业落地。