开发者社区 > ModelScope模型即服务 > 多模态 > 正文

如何本地化(局域网内)部署Qwen的多模态大模型,用作推理 并自有程序调用

如何本地化(局域网内)部署Qwen的多模态大模型,用作推理 并自有程序调用。
并计划像使用qwen-vl-max一样使用它( response = dashscope.MultiModalConversation.call(model=model_name, messages=messages))。

请问下选择怎么部署和调用呢?

展开
收起
MahonGG-24847 2024-06-07 16:03:16 149 0
0 条回答
写回答
取消 提交回答

包含图像描述、文本生成图片、版面分析、多模态表征、视觉问答、文档理解等多个领域

热门讨论

热门文章

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载