热门
ModelScope在128g显存下使用chat-ms模型4bit量化回答问题响应效率慢,怎么加快?
开源上可以使用https://github.com/vllm-project/vllm 进行推理加速, 我们后续也会在dashscope(https://dashscope.aliyun.com/) 上上线推理加速后的llama2模型服务方便调用-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”
包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域