开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

想问下ModelScope,这个能部署到trt-llm吗?

想问下ModelScope,这个能部署到trt-llm吗? 我部署了7b的千问

展开
收起
真的很搞笑 2023-11-15 08:04:38 109 0
3 条回答
写回答
取消 提交回答
  • 面对过去,不要迷离;面对未来,不必彷徨;活在今天,你只要把自己完全展示给别人看。

    ModelScope是一个模型开放平台,它支持部署多种不同类型的机器学习和深度学习模型。关于是否能将特定的模型部署到TensorRT Large Language Model(TRT-LLM),这主要取决于以下因素:

    1. 模型类型

      • TRT-LLM是针对大型语言模型进行优化的一个推理加速器。
      • 如果你的模型是一个自然语言处理(NLP)相关的模型,那么理论上有可能将其部署到TRT-LLM上以提高推理性能。
    2. 模型格式

      • TRT-LLM需要能够处理的模型格式,通常为ONNX或TensorFlow。
      • 因此,如果你的模型可以转换成这些格式之一,并且满足TRT-LLM的要求,就可以尝试部署。
    3. 兼容性问题

      • 需要确保你的模型架构、权重和其他参数与TRT-LLM兼容。
      • 有些特殊的层或者操作可能在TRT-LLM中不被支持,需要对模型进行适当的修改或者替换。
    4. 硬件资源

      • 使用TRT-LLM需要足够的计算资源,特别是GPU。
      • 如果你计划在没有足够硬件资源的情况下部署模型,可能无法充分利用TRT-LLM的优势。
    5. 技术支持

      • ModelScope可能提供了专门的支持工具或者指南来帮助用户将模型部署到TRT-LLM。
      • 建议查阅官方文档或者联系技术支持团队了解具体的步骤和注意事项。
    2023-11-30 23:22:53
    赞同 展开评论 打赏
  • 是的,ModelScope可以部署到TensorRT-LLM。实际上,NVIDIA已经宣布TensorRT-LLM开放使用,它支持多GPU多节点推理,包含常见大模型的转换、部署示例(如ChatGLM系列、GPT系列等),还提供了Python API来支持新模型。此外,魔搭社区和Xinference合作,也提供了模型GGML的部署方式,以ChatGLM3为例。同时,ModelScope-Agent作为适配开源大语言模型(LLM)的AI Agent开发框架,也为所有开发者基于开源 LLM 搭建属于自己的智能体应用提供了可能。

    2023-11-15 10:11:47
    赞同 展开评论 打赏
  • 是的,ModelScope支持将模型部署到TRT-LLM上。

    2023-11-15 09:36:12
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

热门讨论

热门文章

相关电子书

更多
PAI灵骏智算 构建全链路LLM服务的最佳实践 立即下载
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载