热门
ModelScope中,不能加载量化后的模型是为什么?
您用baichuan2_13b_chat / infer.sh试一下。你重新拉一下代码跑, int4模型目前不支持直接导入, 需要在代码中量化 用--quantization_bit 4量化.——此回答整理自钉群:魔搭ModelScope开发者联盟群 ①
包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域