热门
Qwen1.5-72B-Chat-GPTQ-Int4 ModelScope中这个模型 用什么推理呀 ?
由于模型进行了Int4量化,这意味着它在保持一定精度的同时,能够更高效地运行在计算资源有限或要求低延迟、低成本场景下的硬件上,比如CPU或特定优化过的加速器上。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352