ollama部署qwen后,能否用langchain.chatTongyi离线调用?

langchain_community.chat_models.chatTongyi,使用本地模型qwen:32b,在调用聊天时,会使用dashscope的url (https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation)
但是因为离线部署无法访问,所以程序报错。我想改成本地服务器部署后的对应url(ollama部署的,base_url=http://localhost:11434/v1/)

本地调用问答的时候用的是openai.OpenAI,可以直接调用http://localhost:11434/v1/,但是chatTongyi就不行了,默认调用的是 https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation,能该吗,怎么改?

展开
收起
laizef 2024-12-13 17:45:26 153 发布于中国香港 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • 目前LangChain不支持直接与阿里云通义千问集成,建议您咨询阿里云工作人员以获取更多专业指导。如果对您有帮助的话,可以帮忙采纳一下。谢谢。

    2025-02-10 12:20:55 举报
    赞同 65 评论

    评论

    全部评论 (0)

    登录后可评论
  • from langchain_ollama import ChatOllama
    from rich import print
    
    # Ollama加载本地模型(推荐)
    chatLLM = ChatOllama(model="qwen2.5:1.5b",base_url="127.0.0.1:11434")
    
    2025-01-14 17:43:06 举报
    赞同 360 评论

    评论

    全部评论 (0)

    登录后可评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理
AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等