ollama部署qwen后,能否用langchain.chatTongyi离线调用?

langchain_community.chat_models.chatTongyi,使用本地模型qwen:32b,在调用聊天时,会使用dashscope的url (https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation)
但是因为离线部署无法访问,所以程序报错。我想改成本地服务器部署后的对应url(ollama部署的,base_url=http://localhost:11434/v1/)

本地调用问答的时候用的是openai.OpenAI,可以直接调用http://localhost:11434/v1/,但是chatTongyi就不行了,默认调用的是 https://dashscope.aliyuncs.com/api/v1/services/aigc/text-generation/generation,能该吗,怎么改?

展开
收起
laizef 2024-12-13 17:45:26 300 分享 版权
3 条回答
写回答
取消 提交回答
  • 这是因为ChatTongyi实现的是百炼风格的,你自己部署的openai风格的当然没有办法接入,如果是ollama可以试试langchain-ollama,当然比较推荐langchain-qwq这是用openai风格接入的,非常适合自己部署的模型。

    还有就是ChatTongyi是非官方的是社区维护的,目前还有一些小bug。langchain-community这个库官方不怎么维护了很多新特性支持很慢

    2025-06-23 14:12:44
    赞同 展开评论
  • 目前LangChain不支持直接与阿里云通义千问集成,建议您咨询阿里云工作人员以获取更多专业指导。如果对您有帮助的话,可以帮忙采纳一下。谢谢。

    2025-02-10 12:20:55
    赞同 113 展开评论
  • from langchain_ollama import ChatOllama
    from rich import print
    
    # Ollama加载本地模型(推荐)
    chatLLM = ChatOllama(model="qwen2.5:1.5b",base_url="127.0.0.1:11434")
    
    2025-01-14 17:43:06
    赞同 396 展开评论

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理