「寻找热爱技术创作的你:写下你在技术探中的实践和思考」 零一万物大模型开放平台 第二天零一万物大模型开放平台 第二天 我爱我园

简介: 零一万物大模型开放平台支持OpenAI SDK,适配Python 3.7.1+。在解决Python版本不兼容问题(需用Python 3.8.10+)后,安装`openai` SDK,接着配置API基址和密钥,初始化客户端。成功调用`ChatCompletion.create`创建聊天完成例程,输出与预期一致。实现前需在平台注册并验证用户信息,获取API Key。

零一万物大模型开放平台 第二天
方式2:SDK
API 接口兼容 OpenAI 的 Python SDK,只需要简单配置即可使用。
安装 OpenAI SDK。请确保使用的 Python 版本至少为 3.7.1,OpenAI SDK 版本不低于 1.0.0。
以下是我花了一天终于调通的:
PS D:\> python - v
Python 3.12.4 (tags/v3.12.4:8e8a4ba, Jun 6 2024, 19:30:16) [MSC v.1940 64 bit (AMD64)] on win32
Type "help", "copyright", "credits" or "license" for more information.
出现Bug:
所在位置 行:2 字符: 1

  • from openai import OpenAI

此语言版本中不支持“from”关键字。
解决方案:
适用于 Windows 的 Python 版本 |Python.org
安装:
Python 3.8.10 - 2021 年 5 月 3 日
请注意,Python 3.8.10 不能在 Windows XP 或更早版本上使用。
下载 Windows 安装程序(64 位)
继续:
pip install openai
显示:
Installing collected packages: typing-extensions, sniffio, h11, distro, colorama, annotated-types, tqdm, pydantic-core, httpcore, anyio, pydantic, httpx, openai
Successfully installed annotated-types-0.7.0 anyio-4.4.0 colorama-0.4.6 distro-1.9.0 h11-0.14.0 httpcore-1.0.5 httpx-0.27.0 openai-1.34.0 pydantic-2.7.4 pydantic-core-2.18.4 sniffio-1.3.1 tqdm-4.66.4 typing-extensions-4.12.2
继续:
PS D:\> import openai

from openai import OpenAI

API_BASE =
API_KEY = "fa75942eb8914a57bdddb44af543164f"

client = OpenAI(api_key=API_KEY, base_url=API_BASE)

completion = client.ChatCompletion.create(

model="yi-spark",
messages=[{"role": "user", "content": "Hi, who are you?"}]

)

print(completion)
显示:
ChatCompletion(id='cmpl-3c255018', choices=[Choice(finish_reason='stop', index=0, logprobs=None, message=ChatCompletionMessage(content='Hello! I am an AI-powered language model based on the transformers architecture developed by OpenAI. My purpose is to be a helpful resource for you, capable of answering questions and offering insightful information across a wide range of topics. How may I be of service to you today?', role='assistant', function_call=None, tool_calls=None))], created=14505603, model='yi-large', object='chat.completion', system_fingerprint=None, usage=CompletionUsage(completion_tokens=59, prompt_tokens=16, total_tokens=75))
与昨天的结果一致:
问: "Hi, who are you?"
答: 'Hello! I am an AI-powered language model based on the transformers architecture developed by OpenAI. My purpose is to be a helpful resource for you, capable of answering questions and offering insightful information across a wide range of topics. How may I be of service to you today?'
翻译:
问:“嗨,你是谁?”
答:“你好!我是一个基于OpenAI开发的transformers架构的人工智能语言模型。我的目的是成为你的有益资源,能够回答你的问题并提供跨广泛话题的有洞察力的信息。今天我能为你提供什么帮助呢?”
至此完成方式2:SDK 发起请求
补充一下:
前提是:
前置条件
请注册「零一万物大模型开放平台」并且完成 用户信息 认证。
如需创建或查看 API Key,前往「API Key 管理」。

相关文章
|
6月前
|
负载均衡 测试技术 调度
大模型分布式推理:张量并行与流水线并行技术
本文深入探讨大语言模型分布式推理的核心技术——张量并行与流水线并行。通过分析单GPU内存限制下的模型部署挑战,详细解析张量并行的矩阵分片策略、流水线并行的阶段划分机制,以及二者的混合并行架构。文章包含完整的分布式推理框架实现、通信优化策略和性能调优指南,为千亿参数大模型的分布式部署提供全面解决方案。
1572 4
|
6月前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
2860 3
|
6月前
|
机器学习/深度学习 缓存 监控
大模型推理优化技术:KV缓存机制详解
本文深入探讨了大语言模型推理过程中的关键技术——KV缓存(Key-Value Cache)机制。通过对Transformer自注意力机制的分析,阐述了KV缓存的工作原理、实现方式及其对推理性能的显著优化效果。文章包含具体的代码实现和性能对比数据,为开发者理解和应用这一关键技术提供实践指导。
1893 8
|
6月前
|
存储 人工智能 NoSQL
AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
RAG技术通过融合外部知识库与大模型,实现知识动态更新与私有化定制,解决大模型知识固化、幻觉及数据安全难题。本文详解RAG原理、数据库选型(向量库、图库、知识图谱、混合架构)及应用场景,助力企业高效构建安全、可解释的智能系统。
|
6月前
|
人工智能 机器人 人机交互
当AI学会“看、听、懂”:多模态技术的现在与未来
当AI学会“看、听、懂”:多模态技术的现在与未来
422 117
|
6月前
|
机器学习/深度学习 缓存 自然语言处理
【万字长文】大模型训练推理和性能优化算法总结和实践
我们是阿里云公共云 AI 汽车行业大模型技术团队,致力于通过专业的全栈 AI 技术推动 AI 的落地应用。
2602 39
【万字长文】大模型训练推理和性能优化算法总结和实践
|
6月前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
1206 24
|
6月前
|
人工智能 自然语言处理 安全
AI助教系统:基于大模型与智能体架构的新一代教育技术引擎
AI助教系统融合大语言模型、教育知识图谱、多模态交互与智能体架构,实现精准学情诊断、个性化辅导与主动教学。支持图文语音输入,本地化部署保障隐私,重构“教、学、评、辅”全链路,推动因材施教落地,助力教育数字化转型。(238字)
1051 23
|
6月前
|
机器学习/深度学习 存储 并行计算
大模型推理加速技术:FlashAttention原理与实现
本文深入解析大语言模型推理加速的核心技术——FlashAttention。通过分析传统注意力机制的计算瓶颈,详细阐述FlashAttention的IO感知算法设计、前向反向传播实现,以及其在GPU内存层次结构中的优化策略。文章包含完整的CUDA实现示例、性能基准测试和实际部署指南,为开发者提供高效注意力计算的全套解决方案。
1117 10
|
6月前
|
人工智能 文字识别 自然语言处理
从“看见”到“预见”:合合信息“多模态文本智能技术”如何引爆AI下一场革命。
近期,在第八届中国模式识别与计算机视觉学术会议(PRCV 2025)上,合合信息作为承办方举办了“多模态文本智能大模型前沿技术与应用”论坛,汇聚了学术界的顶尖智慧,更抛出了一颗重磅“炸弹”——“多模态文本智能技术”概念。
284 1