国内大模型调用实战

简介: 前面我们一览了国内主要大模型厂商的API价格,今天我们就来具体看下具体API的使用【6月更文挑战第3天】

国内大模型API调用实战

今天我们就来具体看下具体大模型厂商API的使用。

1.API

  • deepseek
    deepseek支持requests直接调用和openai式的调用,新注册用户有500万token

      import requests
      import json
    
      url = "https://api.deepseek.com/chat/completions"
    
      payload = json.dumps({
         
      "messages": [
          {
         
          "content": "You are a helpful assistant",
          "role": "system"
          },
          {
         
          "content": "Hi",
          "role": "user"
          }
      ],
      "model": "deepseek-coder",
      "frequency_penalty": 0,
      "max_tokens": 2048,
      "presence_penalty": 0,
      "stop": None,
      "stream": False,
      "temperature": 1,
      "top_p": 1,
      "logprobs": False,
      "top_logprobs": None
      })
      headers = {
         
      'Content-Type': 'application/json',
      'Accept': 'application/json',
      'Authorization': 'Bearer <key>'
      }
      response = requests.request("POST", url, headers=headers, data=payload)
    
      print(response.text)
    
      from openai import OpenAI
      # for backward compatibility, you can still use `https://api.deepseek.com/v1` as `base_url`.
      client = OpenAI(api_key="sk-4f510fa4ca9d4ea7b56cdca99418fd9d", base_url="https://api.deepseek.com")
    
      response = client.chat.completions.create(
          model="deepseek-chat",
          messages=[
              {
         "role": "system", "content": "You are a helpful assistant"},
              {
         "role": "user", "content": "Hello"},
      ],
          max_tokens=1024,
          temperature=0.7,
          stream=False
      )
    
      print(response.choices[0].message.content)
    
  • 智普AI
    需要安装zhipuai包,新注册用户有赠送token

    • pip install zhipuai
    • Python>=3.7

      from zhipuai import ZhipuAI
      client = ZhipuAI(api_key="dd") # 请填写您自己的APIKey
      response = client.chat.completions.create(
      model="glm-4",  # 填写需要调用的模型名称
          messages=[
              {
             "role": "user", "content": "你好!你叫什么名字"},
          ],
          stream=True,
          )
      for chunk in response:
          print(chunk.choices[0].delta)
      
  • kimi
    kimi也是支持openai样式的调用,新注册用户的15元的赠送

    • pip install --upgrade 'openai>=1.0'

      from openai import OpenAI
      
      client = OpenAI(
          api_key = "sk-KbwNWKBaRwhkvmfIHeaV4xnlpp3haV7qLr0sSU7wIOI9ZSNh",
          base_url = "https://api.moonshot.cn/v1",
      )
      
      completion = client.chat.completions.create(
          model = "moonshot-v1-8k",
          messages = [
              {
             "role": "system", "content": "你是 Kimi,由 Moonshot AI 提供的人工智能助手,你更擅长中文和英文的对话。你会为用户提供安全,有帮助,准确的回答。同时,你会拒绝一切涉及恐怖主义,种族歧视,黄色暴力等问题的回答。Moonshot AI 为专有名词,不可翻译成其他语言。"},
              {
             "role": "user", "content": "你好,我叫李雷,1+1等于多少?"}
          ],
          temperature = 0.3,
      )
      
      print(completion.choices[0].message.content)
      
  • 字节豆包
    豆包需要安装方舟包

    • pip install 'volcengine-python-sdk[ark]'

      from volcenginesdkarkruntime import Ark
      
      # Authentication
      # 1.If you authorize your endpoint using an API key, you can set your api key to environment variable "ARK_API_KEY"
      # or specify api key by Ark(api_key="${YOUR_API_KEY}").
      # Note: If you use an API key, this API key will not be refreshed.
      # To prevent the API from expiring and failing after some time, choose an API key with no expiration date.
      
      # 2.If you authorize your endpoint with Volcengine Identity and Access Management(IAM), set your api key to environment variable "VOLC_ACCESSKEY", "VOLC_SECRETKEY"
      # or specify ak&sk by Ark(ak="${YOUR_AK}", sk="${YOUR_SK}").
      # To get your ak&sk, please refer to this document([https://www.volcengine.com/docs/6291/65568](https://www.volcengine.com/docs/6291/65568))
      # For more information,please check this document([https://www.volcengine.com/docs/82379/1263279](https://www.volcengine.com/docs/82379/1263279))
      client = Ark()
      
      # Non-streaming:
      print("----- standard request -----")
      completion = client.chat.completions.create(
        model="${YOUR_ENDPOINT_ID}",
        messages = [
            {
             "role": "system", "content": "你是豆包,是由字节跳动开发的 AI 人工智能助手"},
            {
             "role": "user", "content": "常见的十字花科植物有哪些?"},
        ],
      )
      print(completion.choices[0].message.content)
      
      # Streaming:
      print("----- streaming request -----")
      stream = client.chat.completions.create(
        model="${YOUR_ENDPOINT_ID}",
        messages = [
            {
             "role": "system", "content": "你是豆包,是由字节跳动开发的 AI 人工智能助手"},
            {
             "role": "user", "content": "常见的十字花科植物有哪些?"},
        ],
        stream=True
      )
      for chunk in stream:
        if not chunk.choices:
            continue
        print(chunk.choices[0].delta.content, end="")
      print()
      
  • 讯飞星火
    讯飞星火新注册用户都有免费额度,不同模型额度不要,3.5有10万token, 2.0的有200万一年token. 接口是采用websocket

    • pip install --upgrade spark_ai_python
    • python 3.8

      from sparkai.llm.llm import ChatSparkLLM, ChunkPrintHandler
      from sparkai.core.messages import ChatMessage
      
      #星火认知大模型Spark3.5 Max的URL值,其他版本大模型URL值请前往文档(https://www.xfyun.cn/doc/spark/Web.html)查看
      SPARKAI_URL = 'wss://spark-api.xf-yun.com/v3.5/chat'
      #星火认知大模型调用秘钥信息,请前往讯飞开放平台控制台(https://console.xfyun.cn/services/bm35)查看
      SPARKAI_APP_ID = ''
      SPARKAI_API_SECRET = ''
      SPARKAI_API_KEY = ''
      #星火认知大模型Spark3.5 Max的domain值,其他版本大模型domain值请前往文档(https://www.xfyun.cn/doc/spark/Web.html)查看
      SPARKAI_DOMAIN = 'generalv3.5'
      
      if __name__ == '__main__':
        spark = ChatSparkLLM(
            spark_api_url=SPARKAI_URL,
            spark_app_id=SPARKAI_APP_ID,
            spark_api_key=SPARKAI_API_KEY,
            spark_api_secret=SPARKAI_API_SECRET,
            spark_llm_domain=SPARKAI_DOMAIN,
            streaming=False,
        )
        messages = [ChatMessage(
            role="user",
            content='你好呀'
        )]
        handler = ChunkPrintHandler()
        a = spark.generate([messages], callbacks=[handler])
        print(a)
      

2. API使用总结

可以知道上面的API使用大同小异,有些直接兼容openai的调用格式:

  • 需要注册获取api key,进行授权
  • api接口基本都支持stream流式输出
  • api接口都是典型chat模式,提供不同的角色信息,system,user和assistant, 多轮对话在history中拼接会话信息

大家快去使用吧。

目录
相关文章
|
13天前
|
人工智能 自然语言处理 API
快速集成GPT-4o:下一代多模态AI实战指南
快速集成GPT-4o:下一代多模态AI实战指南
203 101
|
2月前
|
物联网
直播预告 | Qwen-lmage 技术分享+实战攻略直播
通义千问团队最新开源的图像生成模型 Qwen-Image,凭借其出色的中文理解与文本渲染能力,自发布以来获得了广泛关注与好评。
133 0
|
2月前
智谱发布GLM-4.5V,全球开源多模态推理新标杆,Day0推理微调实战教程到!
视觉语言大模型(VLM)已经成为智能系统的关键基石。随着真实世界的智能任务越来越复杂,VLM模型也亟需在基本的多模态感知之外,逐渐增强复杂任务中的推理能力,提升自身的准确性、全面性和智能化程度,使得复杂问题解决、长上下文理解、多模态智能体等智能任务成为可能。
394 0
|
3月前
|
存储 设计模式 人工智能
AI Agent安全架构实战:基于LangGraph的Human-in-the-Loop系统设计​
本文深入解析Human-in-the-Loop(HIL)架构在AI Agent中的核心应用,探讨其在高风险场景下的断点控制、状态恢复与安全管控机制,并结合LangGraph的创新设计与金融交易实战案例,展示如何实现效率与安全的平衡。
406 0
|
13天前
|
机器学习/深度学习 算法 数据可视化
从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南
推理型大语言模型兴起,通过先思考再作答提升性能。本文介绍GRPO等强化学习算法,详解其原理并动手用Qwen2.5-3B训练推理模型,展示训练前后效果对比,揭示思维链生成的实现路径。
134 1
从零开始训练推理模型:GRPO+Unsloth改造Qwen实战指南
|
9天前
|
人工智能 Java API
Java与大模型集成实战:构建智能Java应用的新范式
随着大型语言模型(LLM)的API化,将其强大的自然语言处理能力集成到现有Java应用中已成为提升应用智能水平的关键路径。本文旨在为Java开发者提供一份实用的集成指南。我们将深入探讨如何使用Spring Boot 3框架,通过HTTP客户端与OpenAI GPT(或兼容API)进行高效、安全的交互。内容涵盖项目依赖配置、异步非阻塞的API调用、请求与响应的结构化处理、异常管理以及一些面向生产环境的最佳实践,并附带完整的代码示例,助您快速将AI能力融入Java生态。
134 12
|
14天前
|
人工智能 自然语言处理 算法
现代AI工具深度解析:从GPT到多模态的技术革命与实战应用
蒋星熠Jaxonic,AI技术探索者,深耕代码生成、多模态AI与提示词工程。分享AI工具架构、实战应用与优化策略,助力开发者提升效率,共赴智能编程新纪元。
|
2月前
|
人工智能 缓存 监控
大模型性能测试实战指南:从原理到落地的全链路解析
本文系统解析大模型性能测试的核心方法,涵盖流式响应原理、五大关键指标(首Token延迟、吐字率等)及测试策略,提供基于Locust的压测实战方案,并深入性能瓶颈分析与优化技巧。针对多模态新挑战,探讨混合输入测试与资源优化

热门文章

最新文章