Anolis

首页 标签 Anolis
# Anolis #
关注
1589内容
Anolis OS 23 架构支持家族新成员:Anolis OS 23.3 版本及 RISC-V 预览版发布
Anolis OS 23.3在保障基础功能持续演进、完善安全漏洞的修复的同时,实现了对 RISC-V 的初步支持。
基于英特尔®DL Boost技术的 AI 性能优化
黄文欢介绍了基于英特尔®深度学习加速(Intel®DL Boost)技术的 AI 性能优化相关内容。首先介绍了英特尔®AVX-512 及深度学习加速技术在各代英特尔®至强®处理器上的演进,包括第一代深度学习加速技术 VNNI;第二代®深度学习加速技术 BFloat16;及下一代深度学习加速技术 AMX。接下来,和大家一起分享了这些深度学习加速技术在龙蜥社区 AI SIG 中的应用及带来的性能提升,包括对深度学习框架 TensorFlow 和 PyTorch 的优化,及用于模型压缩的优化工具 INC。最后介绍了下一代至强可扩展处理器 Sapphire Rapids 上 AMX 技术,并分享了其理论性能提升及相关应用场景。
|
8月前
|
Intel QAT 加速的数据压缩和 TLS 加解密技术 | 龙蜥大讲堂 102 期
Intel QAT(QuickAssist Technology)加速的数据压缩和TLS加解密技术,由Intel网络与边缘事业部唐志军分享。课程涵盖QAT简介、数据压缩、安全应用及价值主张,重点介绍QAT在CPU密集型任务中的加速作用,如对称/非对称加密、数据压缩等。通过QAT,可大幅提升性能,节省CPU资源,优化存储和网络传输效率,适用于网络安全、虚拟机迁移、大数据处理等场景。
中移动算力网络中的云原生虚拟化
中国移动信息技术中心 PaaS 架构师魏宝辉分享了《中移动算力网络中的云原生虚拟化》技术演讲。他对中国移动算力网络的基本布局规划做了简要介绍,算力网络是以算为中心、网为根基的新型信息基础设施 。通过技术升级实现算力无处不在、网络无所不达、智能无所不及的愿景。 在多样性算力的开发过程中,对云原生技术栈的需求愈发突显,开发团队多,发布调试频繁,对 k8s 集群环境需求量大,但是算力资源有限,开发环境的供给速度,跟不上业务的发展速度。中国移动信息技术中心通过 kubevirt 的云原生虚拟化技术,结合 gitops,云 ide 等工具体系,打造了自动化交付的全功能开发环境。在技术上采用了 vm in pod 的模式,并将 k8s 集群放入 pod 内。有效突破了物理机供给 k8s 集群紧张的情况,实现了用 8 台物理主机交付 170 多个开发集群。这种高效的自动化交付能力,也通过云原生虚拟化技术屏蔽了底层的硬件差异,以标准化的 k8s 交付方式,满足开发者的集群使用需求,提升算力资源的利用率,释放更大的算力价值。
多架构体系下内核与系统开发 | 龙蜥大讲堂47期
从点点滴滴的迁移适配过程,分享上游社区操作系统内核,在国产化架构系统的适应、变迁与优化路径。
免费试用