魔搭社区利用 NVIDIA TensorRT-LLM 加速开源大语言模型推理

简介: 魔搭社区于 2022 年 11 月初创建,首次在业界提出了 “模型即服务”( MaaS, Model as a Service)的理念。

“魔搭社区是中国最大的模型开源社区,致力给开发者提供模型即服务的体验。魔搭社区利用 NVIDIA TensorRT-LLM,大大提高了大语言模型的推理性能,方便了模型应用部署,提高了大模型产业应用效率,更大规模地释放大模型的应用价值。”


周文猛,魔搭社区技术负责人,阿里巴巴通义实验室技术总监

魔搭上线 TensorRT-LLM,支持开源LLM模型推理加速

魔搭社区于 2022 年 11 月初创建,首次在业界提出了 “模型即服务”( MaaS, Model as a Service)的理念。在过去一年半的时间里,MaaS 这一理念不仅实现了技术落地,也被行业广泛接纳,并成为与 IaaS、SaaS、PaaS 服务的又一新的技术范式。

2023 年 7 月,Meta 宣布开源 Llama 2 模型,改变了整个大语言模型(LLM)行业的竞争格局。通过繁荣的开源生态,大语言模型迎来了群策群力的技术迭代和突破。

国内外优秀的大语言模型,如 ChatGLM、零一万物、书生·浦语系列、通义千问等,都将魔搭社区作为开源模型首发平台。魔搭社区成为了大模型发展的技术风向标,在中国的开发者群体中,形成了广泛的 “找模型,用模型,上魔搭社区” 的观念认同,从而建成了中国最大开源模型社区。

魔搭社区现在上线了 NVIDIA TensorRT-LLM,TensorRT-LLM 提供了易于使用的应用程序编程接口 (API),以定义和运行大语言模型,支持社区上的各类开源大语言模型(LLM)的推理加速。

查看用户指南:https://modelscope.cn/brand/view/TensorRT-LLM?from=alizishequ__text

目前 TensoRT-LLM 在魔搭社区上已支持的模型类型和推理精度,几乎涵盖了所有主流的大语言/多模态模型以及常用的量化方法,包括 FP32、FP16、BF16、INT8 和 INT4,适用于不同的环境。

LLM 模型推理面临的挑战

计算资源消耗巨大:开源大语言模型参数规模越来越大,比如Qwen1.5-110B 参数规模高达千亿级,对计算资源的需求庞大。在没有优化的情况下直接部署,不仅成本高昂,而且对硬件要求高。

推理延迟高:大语言模型的推理时间长,尤其是在实时交互式应用中,如聊天机器人、语音助手等,高延迟会严重影响用户体验。

能效比低:计算密集型工作流意味着更高的能耗,这对于追求绿色计算和可持续发展的现代数据中心而言是一个重要问题。

部署复杂度高:模型优化、适配不同硬件平台、以及持续维护升级等都是挑战,尤其对于非专业用户来说,部署一个高性能的语言模型服务并不容易。

TensorRT-LLM 如何提升 LLM 模型推理效率

1. 极致性能优化:TensorRT-LLM 是基于 TensorRT API 生态系统构建的,专为大规模语言模型优化的推理引擎。它利用 GPU 的强大并行计算能力,通过算法优化、层融合、量化等技术显著减少模型推理所需的计算量和内存占用,从而提升推理速度,降低延迟。

2. 高效率与低功耗:通过精心设计的优化策略,TensorRT-LLM能够在不牺牲模型精度的前提下,大幅提高能效比,这对于数据中心的成本控制和环境友好至关重要。

3. 简化部署流程:提供一键式的模型优化与部署工具,简化了从训练到推理的整个流程。即便是复杂的模型结构,开发者也能轻松地将其部署到GPU 上,大大降低了技术门槛,加速了产品上市时间。

4. 广泛兼容性与可扩展性:支持魔搭社区的多种主流的深度学习框架和开源模型架构,如 Transformer 系列模型。TensorRT-LLM 设计灵活,便于未来适应更多先进的模型技术和算法创新的更新,保持技术领先性。

在 TensorRT-LLM 和 Triton 推理服务器的加持下,魔搭社区正在为开发者提供更为全面、高效、快捷的模型推理部署方案。

未来,魔搭社区计划将在生成式 AI 的模型和软件加速库层面,与 NVIDIA 相关团队继续开展合作,推动大语言模型的广泛应用和落地。

点击或复制链接到浏览器,查看用户指南:https://modelscope.cn/brand/view/TensorRT-LLM?from=alizishequ__text

相关文章
|
22天前
|
人工智能 自然语言处理 前端开发
基于RAG和LLM的水利知识大语言模型系统开发有感
在数字化时代,水利行业的智能化管理尤为重要。本文介绍了基于大语言模型(LLM)和检索增强生成(RAG)技术的水利知识问答系统的开发过程。该系统结合了前沿AI技术和水利专业知识,通过构建全面的水利知识库,优化用户体验,确保系统的灵活性和可扩展性。项目展示了AI技术在垂直领域的巨大潜力,为水利行业的智能化发展贡献力量。
|
22天前
|
机器学习/深度学习 自然语言处理 测试技术
CoT神话破灭,并非LLM标配!三大学府机构联手证实,CoT仅在数学符号推理有用
【10月更文挑战第17天】链式思维(CoT)曾被认为是大型语言模型(LLM)激发推理能力的关键方法,但最新研究显示,CoT仅在数学和符号推理任务中有效,其他任务中效果不明显。加州大学伯克利分校、斯坦福大学和卡内基梅隆大学的联合研究打破了CoT作为LLM标配的神话,为重新评估LLM的推理能力提供了新视角。
29 1
|
8天前
|
人工智能 自然语言处理
重要的事情说两遍!Prompt复读机,显著提高LLM推理能力
【10月更文挑战第30天】本文介绍了一种名为“问题重读”(Question Re-reading)的提示策略,旨在提高大型语言模型(LLMs)的推理能力。该策略受人类学习和问题解决过程的启发,通过重新审视输入提示中的问题信息,使LLMs能够提取更深层次的见解、识别复杂模式,并建立更细致的联系。实验结果显示,问题重读策略在多个推理任务上显著提升了模型性能。
21 2
|
18天前
|
JSON 人工智能 算法
探索LLM推理全阶段的JSON格式输出限制方法
文章详细讨论了如何确保大型语言模型(LLMs)输出结构化的JSON格式,这对于提高数据处理的自动化程度和系统的互操作性至关重要。
|
24天前
|
机器学习/深度学习 自然语言处理 测试技术
CoT神话破灭,并非LLM标配!三大学府机构联手证实,CoT仅在数学符号推理有用
【10月更文挑战第16天】近期,加州大学伯克利分校、斯坦福大学和卡内基梅隆大学联合研究发现,链式思维(CoT)方法在数学和符号推理任务中表现优异,但在其他类型任务中效果不明显。这一研究打破了CoT作为大型语言模型(LLM)标配的神话,为重新审视LLM的推理能力提供了新视角。
24 2
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
【AI大模型】LLM主流开源大模型介绍
【AI大模型】LLM主流开源大模型介绍
|
2月前
|
人工智能 Prometheus 监控
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
本文介绍了在阿里云容器服务 ACK 上部署 NVIDIA NIM,结合云原生 AI 套件和 KServe 快速构建高性能模型推理服务的方法。通过阿里云 Prometheus 和 Grafana 实现实时监控,并基于排队请求数配置弹性扩缩容策略,提升服务稳定性和效率。文章提供了详细的部署步骤和示例,帮助读者快速搭建和优化模型推理服务。
161 7
使用 NVIDIA NIM 在阿里云容器服务(ACK)中加速 LLM 推理
|
27天前
|
计算机视觉
Deepseek开源多模态LLM模型框架Janus,魔搭社区最佳实践
deepseek近期推出了简单、统一且灵活的多模态框架Janus,它能够统一处理多模态理解和生成任务。让我们一起来了解一下吧。
|
1月前
|
人工智能 API 调度
大语言模型 LLM 管理功能特点解析
大语言模型领域正快速发展,涵盖技术革新、跨领域应用及行业影响。随着技术进步,更多创新性AI应用和服务涌现。Botnow加速迭代AI应用开发平台,赋能各行各业。新发布的模型管理功能包括模型仓库和模型服务,支持模型文件托管、部署及推理服务,提升使用效率,降低成本。模型服务具备本地推理和接入外部模型的能力,满足中大型企业对大语言模型自主可控的需求。
|
28天前
|
前端开发 机器人 API
前端大模型入门(一):用 js+langchain 构建基于 LLM 的应用
本文介绍了大语言模型(LLM)的HTTP API流式调用机制及其在前端的实现方法。通过流式调用,服务器可以逐步发送生成的文本内容,前端则实时处理并展示这些数据块,从而提升用户体验和实时性。文章详细讲解了如何使用`fetch`发起流式请求、处理响应流数据、逐步更新界面、处理中断和错误,以及优化用户交互。流式调用特别适用于聊天机器人、搜索建议等应用场景,能够显著减少用户的等待时间,增强交互性。
210 2