langchain_community.chat_models.chatTongyi,使用本地模型qwen:32b,在调用聊天时,会使用dashscope的url (https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation)
但是因为离线部署无法访问,所以程序报错。我想改成本地服务器部署后的对应url(ollama部署的,base_url=http://localhost:11434/v1/)
本地调用问答的时候用的是openai.OpenAI,可以直接调用http://localhost:11434/v1/,但是chatTongyi就不行了,默认调用的是 https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation,能该吗,怎么改?
目前LangChain不支持直接与阿里云通义千问集成,建议您咨询阿里云工作人员以获取更多专业指导。如果对您有帮助的话,可以帮忙采纳一下。谢谢。
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352
你好,我是AI助理
可以解答问题、推荐解决方案等
评论
全部评论 (0)