.NET 9 发布 性能提升、AI 支持与全方位改进

简介: 【11月更文挑战第5天】.NET 9 引入了多项改进,包括性能提升、AI 支持和全方位功能优化。性能方面,编译器增强、服务器 GC 优化、矢量化和硬件支持等提升了执行效率。AI 方面,新增学习材料、合作伙伴生态、原生支持和生成式 AI 集成。此外,.NET Aspire 组件升级、编程语言新功能和开发工具更新进一步提升了开发体验。

.NET 9 带来了多方面的改进,包括性能提升、AI 支持以及全方位的功能优化,以下是详细介绍:


  1. 性能提升2
  • 编译器增强:64 位 JIT(Just-In-Time)编译器有诸多优化,比如生成更优质的循环代码,更多的本机 AOT(Ahead-of-Time)方法内嵌以及更快的类型检查,这些改进让代码的执行效率更高。
  • 服务器 GC 优化:服务器垃圾回收器(GC)根据应用程序的实际内存需求进行调整,而非依赖环境资源,这在高核心数环境以及应用程序内存需求变化较大的情况下效果显著,减少了内存使用量,但可能会有轻微的吞吐量成本2
  • 矢量化和硬件支持:.NET 9 回归矢量化,增加了对 Arm64 SVE、Intel AVX10 等新芯片的支持,并且支持硬件加速运行时,大大提高了硬件的吞吐量2
  • RyuJIT 性能改进:RyuJIT 在 Arm64、循环、PGO(Profile-Guided Optimization,配置文件引导优化)和边界检查等方面性能提升,异常处理速度提高了 50%2
  • 动态 PGO 更新:动态 PGO 得到更新,能够优化更多代码模式。JIT 可以为应用中的常见和不可见的类型转换生成快速路径代码,并且能展开和矢量化对缓冲区的某些操作,执行速度提高了 70%(需禁用 ReadyToRun)2
  • LINQ 和 JSON 操作优化:LINQ 的 TakeDefaultIfEmpty 等方法在底层数组、集合或可枚举为空时返回速度提高了 10 倍;System.Text.Json 的各种操作性能提升超过 50%,JsonObject 优化了内存分配和调整大小的成本2
  1. AI 支持
  • 丰富的学习材料和示例:为开发者提供了新的学习材料和示例,以便他们能更轻松地将 AI 功能集成到应用程序中2
  • 强大的合作伙伴生态:与 Azure、OpenAI、LlamaIndex、Qdrant、Pinecone、Milvus、AutoGen、OllamaSharp、ONNX Runtime 等众多合作伙伴合作,构建了强大的 AI 生态系统。同时,与社区和控件供应商合作,构建智能组件生态系统,让 AI 集成变得更加容易2
  • 原生支持与抽象层:对 ONNX 运行时的原生支持,简化了 AI 模型的加载和推理过程,开发者可以通过 Microsoft.ML.OnnxRuntime 命名空间直接加载 ONNX 模型,并调用硬件加速器。还引入了 Microsoft.Extensions.AIMicrosoft.Extensions.VectorData ,为与 AI 服务交互提供统一的 C# 抽象层,支持小型和大型语言模型、嵌入、向量存储和中间件3
  • 集成生成式 AI:通过集成 OpenAI 的 SDK,开发者可以直接在.NET 项目中使用 GPT 系列模型来构建智能应用,并且推出了 Microsoft.ML.GenAI,使开发者能够加载并使用流行的生成式 AI 模型3
  1. 全方位改进2
  • .NET Aspire 组件升级:.NET Aspire 是一组用于开发可观察、生产就绪应用程序的工具、模板和包。自首次发布后的六个月内进行了全面改进,包括遥测和指标仪表板的新功能、更简化的云应用程序部署,还增加了从仪表板启动和停止资源、在调试会话间保持容器活动状态、新的管理资源启动的 API 等功能,并且与 OpenAI、Ollama、Milvus 等实现了无缝集成。
  • 编程语言新功能:C# 13.0、F# 8.0 和 Visual Basic 16.9 等语言的更新,为开发者提供了更多的语言特性和功能,有助于提高开发效率。
  • 开发工具更新:Visual Studio 2022(v17.12)对.NET 9 提供了更好的支持,在性能、调试和诊断方面有显著改进,与.NET Aspire 进行了更好的集成,支持 C# 13 的分析器,改进了 Git 支持等4
相关文章
|
6月前
|
机器学习/深度学习 人工智能 编解码
智谱AI发布新版VLM开源模型GLM-4.1V-9B-Thinking,引入思考范式,性能提升8倍
视觉语言大模型(VLM)已经成为智能系统的关键基石。
1228 0
|
4月前
|
人工智能 运维 安全
从被动防御到主动免疫进化!迈格网络 “天机” AI 安全防护平台,助推全端防护性能提升
迈格网络推出“天机”新版本,以AI自学习、全端防护、主动安全三大核心能力,重构网络安全防线。融合AI引擎与DeepSeek-R1模型,实现威胁预测、零日防御、自动化响应,覆盖Web、APP、小程序全场景,助力企业从被动防御迈向主动免疫,护航数字化转型。
从被动防御到主动免疫进化!迈格网络 “天机” AI 安全防护平台,助推全端防护性能提升
|
4月前
|
人工智能 数据可视化 前端开发
AI Ping:精准可靠的大模型服务性能评测平台
AI Ping是清华系团队推出的“大模型服务评测平台”,被誉为“AI界的大众点评”。汇聚230+模型服务,7×24小时监测性能数据,以吞吐量、延迟等硬指标助力开发者科学选型。界面简洁,数据可视化强,支持多模型对比,横向对标国内外主流平台,为AI应用落地提供权威参考。
1121 3
|
5月前
|
人工智能 编解码 安全
阿里云服务器上新,第9代AMD企业级实例g9ae,提升企业AI业务创新与性能突破
近日,阿里云推出的服务器ECS第9代AMD企业级实例-g9ae实例已开启邀测阶段,g9ae实例基于CIPU 2.0架构,搭载AMD Turin处理器,为国内首创物理核设计的“性能旗舰型”算力产品,专为AI时代企业离线数据处理打造。本文为大家介绍g9ae实例的性能及适用场景,以供了解与参考。
|
6月前
|
存储 人工智能 API
AI代理性能提升实战:LangChain+LangGraph内存管理与上下文优化完整指南
在AI代理系统开发中,上下文工程成为提升系统性能的关键技术。本文探讨了从提示工程到上下文工程的转变,强调其通过为AI系统提供背景信息和工具支持,显著提升智能化程度和实用价值。文章系统分析了上下文工程的理论基础、核心策略(如写入、选择、压缩和隔离),并结合LangChain和LangGraph工具,展示了如何实现上下文工程技术以优化AI代理性能。通过Scratchpad机制、内存管理、RAG系统集成、多代理架构及沙盒环境等技术手段,开发者可以更高效地构建高性能、可扩展的AI系统。
807 0
AI代理性能提升实战:LangChain+LangGraph内存管理与上下文优化完整指南
|
9月前
|
机器学习/深度学习 人工智能 计算机视觉
标签噪声下的模型评估:如何准确评估AI模型的真实性能,提高模型性能测量的可信度
本文探讨了测试数据标签错误对模型性能评估的影响,分析了如何估计模型的“真实”准确率。通过图像分类案例,揭示了标签噪声与模型性能间的复杂关系。当模型错误与标签错误独立时,真实准确率通常高于测量值;但实际中两者常相关,导致真实准确率更接近下限。文章提出通过深入错误分析、评估相关性和多标注等方式优化性能评估,强调理解这些关系对提升模型可信度的重要性。
304 2
标签噪声下的模型评估:如何准确评估AI模型的真实性能,提高模型性能测量的可信度
|
11月前
|
机器学习/深度学习 人工智能 编解码
阿里开源AI视频生成大模型 Wan2.1:14B性能超越Sora、Luma等模型,一键生成复杂运动视频
Wan2.1是阿里云开源的一款AI视频生成大模型,支持文生视频和图生视频任务,具备强大的视觉生成能力,性能超越Sora、Luma等国内外模型。
3801 2
阿里开源AI视频生成大模型 Wan2.1:14B性能超越Sora、Luma等模型,一键生成复杂运动视频
|
11月前
|
人工智能 编解码 算法
ENEL:3D建模革命!上海AI Lab黑科技砍掉编码器,7B模型性能吊打13B巨头
ENEL是由上海AI Lab推出的无编码器3D大型多模态模型,能够在多个3D任务中实现高效语义编码和几何结构理解,如3D对象分类、字幕生成和视觉问答。
316 9
ENEL:3D建模革命!上海AI Lab黑科技砍掉编码器,7B模型性能吊打13B巨头
|
11月前
|
人工智能 自然语言处理 运维
AI性能极致体验:通过阿里云平台高效调用满血版DeepSeek-R1模型
DeepSeek是近期热门的开源大语言模型(LLM),以其强大的训练和推理能力备受关注。然而,随着用户需求的增长,其官网在高并发和大数据处理场景下常面临服务不稳定的问题。本文将深度测评通过阿里云平台调用满血版DeepSeek模型(671B),以充分发挥其性能和稳定性。阿里云提供高效、低延迟、大规模并发支持及稳定的云服务保障,并为用户提供100万免费token,简化操作流程,确保企业在AI应用上的高效性和成本效益。尽管如此,DeepSeek API目前不支持联网搜索和图片、文档分析功能,需结合其他工具实现。
1641 17

热门文章

最新文章