ModelScope中有没有多模态版本的量化?

ModelScope中有没有多模态版本的量化?

展开
收起
小小爱吃香菜 2024-05-01 08:57:07 61 分享 版权
阿里云 AI 助理回答

在ModelScope中,确实存在多模态版本的量化模型。以下是相关的详细信息:

多模态Embedding模型

ModelScope提供了多模态Embedding模型,例如CLIP模型的中文版本。这些模型经过大规模中文数据训练(约2亿图文对),适用于图文检索和图像、文本的表征提取任务。以下是支持的CLIP模型及其配置:

| 模型ID | 向量维度 | 度量方式 | 向量数据类型 | 备注 | | - | - | - | - | - | | damo/multi-modal_clip-vit-base-patch16_zh | 512 | Cosine | Float32 | 中文-通用领域-base-224分辨率,最长文本长度:512 | | damo/multi-modal_clip-vit-large-patch14_zh | 768 | Cosine | Float32 | 中文-通用领域-large-224分辨率,最长文本长度:512 | | damo/multi-modal_clip-vit-huge-patch14_zh | 1024 | Cosine | Float32 | 中文-通用领域-huge-224分辨率,最长文本长度:512 | | damo/multi-modal_clip-vit-large-patch14_336_zh | 768 | Cosine | Float32 | 中文-通用领域-large-336分辨率,最长文本长度:512 |

文生图模型

此外,ModelScope还支持文生图模型,例如CHINESE_STABLE_DIFFUSION。该模型可以根据描述文本生成符合文本描述的2D图像,属于多模态应用场景。

量化支持

对于量化版本的支持,ModelScope中的部分模型已经提供了量化选项。例如: - DeepSeek系列模型:可以通过GGUF文件进行量化部署。以DeepSeek-R1-Distill-Qwen-14B-GGUF为例,其量化文件为DeepSeek-R1-Distill-Qwen-14B-Q4_K_M.gguf,用户可以根据需求选择不同的量化精度型文件。 - 通义千问系列模型:如QWEN-7B-Chat-Int4QWEN-14B-Chat-Int4,均为INT4量化版本,适用于高效推理场景。

部署与使用

  1. 获取模型ID和量化文件:用户可以登录ModelScope官网,获取相关模型ID和量化文件(如GGUF文件)。
  2. 资源配置:对于14B及以上规模的模型,建议使用Ada系列显卡,并预留48G显存以确保性能。
  3. 验证与调用:完成部署后,可以通过调试功能或第三方平台API(如Chatbox)验证模型调用效果。

重要提醒

  • 硬件要求:大模型(如14B及以上)需要较高的硬件配置,建议根据业务需求选择合适的显卡类型。
  • 量化选择:量化版本(如INT4)能够在保证性能的同时降低资源消耗,适合推理场景。

综上所述,ModelScope中不仅有多模态模型,还支持量化版本的部署和使用,能够满足多种应用场景的需求。

有帮助
无帮助
AI 助理回答生成答案可能存在不准确,仅供参考
0 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理