想问下ModelScope,这个能部署到trt-llm吗? 我部署了7b的千问
ModelScope是一个模型开放平台,它支持部署多种不同类型的机器学习和深度学习模型。关于是否能将特定的模型部署到TensorRT Large Language Model(TRT-LLM),这主要取决于以下因素:
模型类型:
模型格式:
兼容性问题:
硬件资源:
技术支持:
是的,ModelScope可以部署到TensorRT-LLM。实际上,NVIDIA已经宣布TensorRT-LLM开放使用,它支持多GPU多节点推理,包含常见大模型的转换、部署示例(如ChatGLM系列、GPT系列等),还提供了Python API来支持新模型。此外,魔搭社区和Xinference合作,也提供了模型GGML的部署方式,以ChatGLM3为例。同时,ModelScope-Agent作为适配开源大语言模型(LLM)的AI Agent开发框架,也为所有开发者基于开源 LLM 搭建属于自己的智能体应用提供了可能。