热门
qwen-7b-chat-int4量化微调的部署,微调后的ModelScope模型不支持合并,vllm-gptq也不支持?
量化qlora训练的模型 没有方法merge lora的, 在原生pt部署中兼容这种情况。此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域