ChatGPT API 开发第一步,验证你的 SECRET KEY 能不能用

简介: ChatGPT API 开发第一步,验证你的 SECRET KEY 能不能用

image.png

ChatGPT API 开发第一步,验证你的 SECRET KEY 能不能用

目录


  • 生成接口调用密钥
  • 关于费用问题
  • 使用 curl 测试 API 通否
  • 最佳的模型选择
  • 使用 Node.js 验证基于提示的问答接口
  • 使用 Python 测试接口
  • 获取 models 列表
  • 调用 Chat 聊天接口
  • 调用 Completion 问答接口
  • 由文本生成图片
  • 小结

在取到 ChatGPT 的试用权限之后,便可以着手研究它的 API 了。(具体如何申请,网上有帖子,可以自行搜索一下。)


对于还没有申请 API 试用权限的读者朋友,抓紧时间在下面这个地址申请:

platform.openai.com/


打开后, 如果是第一次登录该平台,可能会有一个让你加入等待列表的提示,按提示操作。通过后,会有一封邮件给你。


生成接口调用密钥

首先,在下面这个网址:


platform.openai.com/account/api…

点击“Create new secret key”按钮,便可以生成一个 SECRET KEY,这个东西只展示一次,生成后立马拷贝至一个外人看不到的地方保密起来。


SECRET KEY 我们可以称之为接口调用密钥,当我们稍后调用 ChatGPT 的每一个 API 时,都需要将这个密钥带上,ChatGPT 靠它知道我们是谁,并从我们的帐号中扣钱。

有人可能会问,这个 SECRET KEY 我不申请行不行,我用别人的?


当然可以,只要别人让人用。所以刚才我们讲,在你生成这个密钥之后,一定要把它放在一个别人看不到的地方。有人会错把它放在 Github 仓库里,这是一种失误,如果真出现了泄漏,也不要紧张,还是在上面的生成页面,单击密钥后面的删除按钮,将它删除便是了。


image.png

关于费用问题


刚才我们说了,接口调用是要花钱的。但 ChatGPT 为了方便开发者上手,为每人提供了一个小数额的信用额度,这个额度从早期的 18,再到目前的$5,信用额度是越来越低了。


这可能与使用的开发者过多及资源有限有关,所以我奉劝想研究 ChatGPT 的开发者,有时间尽早去发邮件申请一下 API 的试用权限。哪怕申请了之后你不用,额度也一直在哪里,在截止目前之前不会减少。


你可以在下面这个链接查看你剩余的额度:


image.png


image-20230325201629181


如果初始信用额度用完了,你可以在下面这个地址设置你的信用卡,每月月底 ChatGPT 会从你的卡上扣钱。


platform.openai.com/account/bil…


使用 curl 测试 API 通否


拿到密钥以后,第一步是测试接口的连通问题,这是最简单的,但也是最重要的。接口链路不通,后面一切都得研究了。


假设你的电脑上已经有了终端 curl 工具(没有的话可以自行搜索安装一下),在终端中执行以下代码:


curl https://api.openai.com/v1/models \
  -H "Authorization: Bearer $OPENAI_API_KEY"


99.99%的概率你看不到正确的返回。在这里有两个问题需要我们先处理一下。


第一个,关于系统变量$OPENAI_API_KEY,它是需要我们手动设置的。在 Windows 机器上,我们需要在系统设置->环境变量里面,添加名称为 OPENAI_API_KEY 的变量,值就是上面我们刚刚生成的 API 密钥。如果是 macOS/Linux 系统,我们需要在 bash 配置文件中手动导出一个名称为 OPENAI_API_KEY 的变量,值同样也是 API 密钥。


具体设置方法如果有不明白的可以谷歌。验证环境变量设置是否成功,可以在终端里执行以下指令:


echo $OPENAI_API_KEY


第二个,就是调用请求从我们的电路上发出,至到达终点,中间可能会遇到高墙大山,这时候我们需要梯子。研究 ChatGPT API 开发,梯子就像电工的钳子一样,必须随身携带。


将本地梯子设置好以后,在 curl 指令参数列表中加上 proxy 参数,如下所示:


curl --proxy http://127.0.0.1:7890 https://api.openai.com/v1/models \
  -H "Authorization: Bearer $OPENAI_API_KEY"


如果前面的两步你都完成了,正常情况下你就能得到一个 Models List 文本。ChatGPT 有很多模型,/v1/models 这个接口就是返回我们可以选择的模型,每个模型的功能、处理能力及价格都是不一样的,在目前我们知道这一点就足够了(应该足够了)。


返回的结果很长,是一个 JSON 字符串,内容没有必要细看,意义不大。我通过 map 方法处理了一下这个结果:


let models = ret.data.map(item=>item.id)


最后得到的列表是这样的:


(62) ['babbage', 'davinci', 'babbage-code-search-code', 'text-similarity-babbage-001', 'text-davinci-001', 'ada', 'curie-instruct-beta', 'babbage-code-search-text', 'babbage-similarity', 'whisper-1', 'code-search-babbage-text-001', 'text-curie-001', 'code-search-babbage-code-001', 'text-ada-001', 'text-embedding-ada-002', 'text-similarity-ada-001', 'ada-code-search-code', 'ada-similarity', 'text-davinci-003', 'code-search-ada-text-001', 'text-search-ada-query-001', 'davinci-search-document', 'ada-code-search-text', 'text-search-ada-doc-001', 'davinci-instruct-beta', 'text-similarity-curie-001', 'code-search-ada-code-001', 'ada-search-query', 'text-search-davinci-query-001', 'curie-search-query', 'gpt-3.5-turbo-0301', 'davinci-search-query', 'babbage-search-document', 'ada-search-document', 'text-search-curie-query-001', 'text-search-babbage-doc-001', 'gpt-3.5-turbo', 'curie-search-document', 'text-search-curie-doc-001', 'babbage-search-query', 'text-babbage-001', 'text-search-davinci-doc-001', 'text-search-babbage-query-001', 'curie-similarity', 'curie', 'text-similarity-davinci-001', 'text-davinci-002', 'davinci-similarity', 'cushman:2020-05-03', 'ada:2020-05-03', 'babbage:2020-05-03', 'curie:2020-05-03', 'davinci:2020-05-03', 'if-davinci-v2', 'if-curie-v2', 'if-davinci:3.0.0', 'davinci-if:3.0.0', 'davinci-instruct-beta:2.0.0', 'text-ada:001', 'text-davinci:001', 'text-curie:001', 'text-babbage:001']


最佳的模型选择


一共有 62 个,这是理论上我们在使用 ChatGPT 的能力时,可以选择的模型。有很多模型可能我们一直都不会研究,有 5 个模型是我们接下来可能会经常用到的。它们是:

  • Ada 阿达
  • Bargage 巴贝奇
  • Curie 居里
  • Davinci 达芬奇
  • gpt-3.5-turbo 3.5 涡轮

这 5 个模型,它们的能力从上至下是逐步升高的,它们的处理速度整体上(至少在前 4 个里面)是逐步降低的,这也很好理解,任务越复杂越要耗费的 CPU 时间就越多。还有,它们的每一千个 token(什么是 token?)消耗的 money(在前 4 个里面)也是逐步升高的,这可以理解为,能力越大,成本越大。


这里提到了一个新概念:token,什么是 token?这是个程序里的概念,可以简单理解为汉语里的字,英语句子里的单词,甚至单词里包含的前缀、后缀。有人做过统计,大概每 750 个字相当于 1000 个 token。token 是 ChatGPT API 接口调用的计量单位。


这 5 个模型我们看到了,基本越往后能力越大,但耗时及资费也越来越贵。但第 5 个模型 gpt-3.5-turbo,目前是一个例外。除了 GPT-4 的 API 之外,它在目前 5 个模型中,能力是最强的。我们看一下它们的资费对比:


  • Ada $0.0004
  • Babbage $0.0005
  • Curie $0.002
  • Davinci $0.02
  • gpt-3.5-turbo $0.002

gpt-3.5-turbo 不是最贵的,也不是处理时间最快的,但综合考虑能力、资费及耗时,它是目前的最优选择。除非你的工作任务使用前几个模型就可以完成,否则使用 gpt-3.5-turbo 模型是毫无疑问的默认选项。


好,现在知道选择哪个选型了。我们测试一两个 API,分别用 Node.js 和 Python 两种语言。


使用 Node.js 验证基于提示的问答接口


下面我们用 Node.js,实现对 ChatGPT 问答接口的调用。基于提示指令的问答,是 ChatGPT 最常被使用的接口。直接上主要代码吧:


// disc/01/main.js
import httpsProxyAgent from "https-proxy-agent";
import env from "env";
// all_proxy=socks5://127.0.0.1:7890
function httpsAgent() {
 // @ts-ignore
 return new httpsProxyAgent( {
  host: '127.0.0.1',
  port: 7890,
  protocol: 'socks5'
 } );
}
async function test(messages) {
  const apiKey = env.getenv("OPENAI_API_KEY");
  const result = await fetch(`https://api.openai.com/v1/chat/completions`, {
    agent: httpsAgent(),
    headers: {
      "Content-Type": "application/json",
      Authorization: `Bearer ${apiKey}`,
    },
    method: "POST",
    body: JSON.stringify({
      messages,
      model: "gpt-3.5-turbo",
      temperature: 0.5,
      max_tokens: 4096,
      stream: true,
    })
  });
  return result
}
async function main() {
  const r = await test("What's your name?").catch(console.log);
  console.log("result:",r);
}
main();


解决一下这个文件:


  • 第 1 行,https-proxy-agent 是一个第三方模块,是用来设置本地代理的,需要提前安装;
  • 第 8 行至第 12 行,这里设置的是本地代理,在测试开始之前,一定要记得开启代理;
  • 第 16 行,这里是从环境变量中取密钥,这一步依赖前面使用 curl 测试 API 的一步。这里就体现了使用环境变量的好处,密钥放在本地电脑里面,不会随代码被推到 Github 仓库里;
  • 第 17 行,这个地址/v1/chat/completions 就是问答的 API 地址;
  • 第 26 行,这里选择的模型是 gpt-3.5-turbo,这是前面我们选定的默认模型。

在测试之前,有一点可能需要说明一下,这是一个 Node.js 项目,位置位于 disc/01,在测试时它需要被当作一个 Node.js 项目启动,测试指令为:


yarn dev or npm run dev


如果你不这样做,而直接执行 node main.js,可能会遇到一个关于 Node.js 模块导入的语法错误。


所有步骤一切都搞定以后,执行测试,应该就能看到结果了。


使用 Python 测试接口


前面使用 Node.js 测试接口,每一个接口参数都需要我们自己传递,这对于一部分开发者来说可能是透明的优点,但对于另外一部分开发者来说,可能就是麻烦了。下面我们尝试使用官方封装的 openai 模块,在 Python 中调用官方的 API。


首先,是安装 openai 模块:


pip3 install openai


在 Node.js 中,其实也有一个现成的 openai 模块,它可以使用 yarn 或 npn 安装:


yarn add openai or npm install openai


如果你想简单一些,又使用 Node.js 进行开发,可以安装这个 openai 模块。


获取 models 列表


下面的 Py 代码用于拉取 models:


# disc/02.py
import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")
print(openai.Model.list())


它在内部也是调用了/v1/models 接口,只是封装了起来,只需要我们提供一个必须提供的 api_key。


调用 Chat 聊天接口


调用的是聊天接口/v1/chat/completions,代码如下所示:


# disc/03.py
import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")
completion = openai.ChatCompletion.create(
  model="gpt-3.5-turbo",
  messages=[{"role": "user", "content": "Do u know yishulun?"}]
)
print(completion)


对于像这样的简单的 Py 代码,可以这样测试:


python3 03.py


调用 Completion 问答接口


将要调用的是/v1/completions 接口,它在前面使用过,基于开发者提供的指令(prompt),完成特定的任务:


# disc/04.py
import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")
text_prompt = "请你扮演一个脱口秀演员,讲一个与‘艺述论’有关的笑话。"
completion = openai.Completion.create(
    model="text-davinci-003",
    prompt=text_prompt,
    temperature=0.5,
)
generated_text = completion.choices[0].text
print(generated_text)


在这里有一个问题,请注意,==如果我们将第 8 行的模型换成 gpt-3.5-turbo,对不起代码就报错了,为什么?==


由文本生成图片


怎么生成呢?直接上 Py 代码吧:


# disc/05/main.py
import os
import openai
openai.api_key = os.getenv("OPENAI_API_KEY")
response = openai.Image.create(
  prompt="A red fish bites a black dog.",
  n=2,
  size="1024x1024"
)
# ['256x256', '512x512', '1024x1024']
image_url = response['data']
print(image_url)


这个示例会返回两个图片,其中一张是这样的:


image.png


第 8 行传递的参数 size,只能从有限的备选项中选取,它们是['256x256', '512x512', '1024x1024'] 。注意==,这里的 size 为什么一定是正方形呢?为什么不能由开发者随便指定比例及大小呢?==


小结


基本上通过以上几步的折腾,你大概就能搞明白 ChatGPT API 怎么调用了。当然了,具体的每个接口如何使用,还需要看官方的文档,地址是:


platform.openai.com/docs/api-re…


这篇文章的主要目的,在于使用 Node.js、Python 这样简单的脚本语言,快速验证你的密钥是否可用,是否具备进行 ChatGPT API 研究的基础条件。


有问题欢迎在评论区提问。


参考资料

[2] platform.openai.com/docs/api-re…

[2] ChatGPT API研究示例仓库:github.com/rixingyike/…

目录
相关文章
|
2月前
|
监控 搜索推荐 API
淘宝店铺详情API接口的开发、应用与收益
淘宝开放平台提供了丰富的API接口,帮助开发者获取海量的商品和店铺数据。本文聚焦于淘宝店铺详情API接口的开发、应用及收益。首先,开发者需注册账号并创建应用以获取API密钥。接着,通过阅读接口文档,使用Python等语言编写代码调用API,处理返回的数据。该接口广泛应用于竞品分析、数据分析、价格监控、个性化推荐等领域,为开发者带来提高用户体验、降低运营成本、增加收入等多方面收益。同时,开发者需注意遵守法律法规、请求频率限制及数据安全等问题,确保合法合规地使用接口资源。
80 4
|
2月前
|
自然语言处理 搜索推荐 数据挖掘
淘宝商品描述 API 接口的开发、应用与收益
淘宝商品描述API接口的开发与应用涵盖注册成为开发者、了解API规范、选择开发工具及语言(如Python)和实现代码调用。该接口可用于优化电商平台商品展示、同步数据、竞品分析、智能客服及个性化推荐,从而提高销售转化率、降低运营成本并拓展业务机会。通过自动化处理和数据分析,企业能更精准地满足消费者需求,提升竞争力。
98 9
|
2月前
|
监控 Cloud Native 安全
基于 API 网关践行 API First 开发实践
API First 开发模式的核心在于:以 API 为先,将其视为“头等公民”,在构建应用、服务及集成之前,应优先定义并设计 API 及其配套。API First 作为一种相对较新的开发模式,它已逐渐流行并获得业内的广泛认可。
198 73
|
1月前
|
数据采集 搜索推荐 API
小红书笔记详情 API 接口的开发、应用与收益
小红书(RED)作为国内领先的生活方式分享平台,汇聚了大量用户生成内容(UGC),尤其是“种草”笔记。小红书笔记详情API接口为开发者提供了获取笔记详细信息的强大工具,包括标题、内容、图片、点赞数等。通过注册开放平台账号、申请API权限并调用接口,开发者可以构建内容分析工具、笔记推荐系统、数据爬虫等应用,提升用户体验和运营效率,创造新的商业模式。本文详细介绍API的开发流程、应用场景及潜在收益,并附上Python代码示例。
221 61
|
5天前
|
XML JSON API
Understanding RESTful API and Web Services: Key Differences and Use Cases
在现代软件开发中,RESTful API和Web服务均用于实现系统间通信,但各有特点。RESTful API遵循REST原则,主要使用HTTP/HTTPS协议,数据格式多为JSON或XML,适用于无状态通信;而Web服务包括SOAP和REST,常用于基于网络的API,采用标准化方法如WSDL或OpenAPI。理解两者区别有助于选择适合应用需求的解决方案,构建高效、可扩展的应用程序。
|
26天前
|
人工智能 Rust 安全
DeepClaude:结合 DeepSeek R1 和 Claude AI 各自优势开发的 AI 应用平台,支持 API 调用和零延迟的即时响应
DeepClaude 是一个开源的 AI 应用开发平台,结合了 DeepSeek R1 和 Claude 模型的优势,提供即时响应、端到端加密和高度可配置的功能。
293 4
DeepClaude:结合 DeepSeek R1 和 Claude AI 各自优势开发的 AI 应用平台,支持 API 调用和零延迟的即时响应
|
27天前
|
JSON 前端开发 API
以项目登录接口为例-大前端之开发postman请求接口带token的请求测试-前端开发必学之一-如果要学会联调接口而不是纯写静态前端页面-这个是必学-本文以优雅草蜻蜓Q系统API为实践来演示我们如何带token请求接口-优雅草卓伊凡
以项目登录接口为例-大前端之开发postman请求接口带token的请求测试-前端开发必学之一-如果要学会联调接口而不是纯写静态前端页面-这个是必学-本文以优雅草蜻蜓Q系统API为实践来演示我们如何带token请求接口-优雅草卓伊凡
62 5
以项目登录接口为例-大前端之开发postman请求接口带token的请求测试-前端开发必学之一-如果要学会联调接口而不是纯写静态前端页面-这个是必学-本文以优雅草蜻蜓Q系统API为实践来演示我们如何带token请求接口-优雅草卓伊凡
|
7天前
|
数据可视化 测试技术 API
前后端分离开发:如何高效调试API?有工具 vs 无工具全解析
在前后端分离的开发模式中,API 调试的效率直接影响项目的质量和交付速度。通过本文的对比分析,我们可以看到无工具调试模式虽具备灵活性和代码复用能力,但在操作便利性和团队协作上稍显不足。而传统的外部调试工具带来了可视化、高效协作与扩展性,却可能存在工具切换带来的开发链路断层问题。Apipost-Hepler 融合了两者的优势,让开发者无需离开熟悉的 IDEA 环境,就能享受可视化调试工具的强大功能。
35 5
|
12天前
|
Cloud Native 安全 Serverless
云原生应用实战:基于阿里云Serverless的API服务开发与部署
随着云计算的发展,Serverless架构日益流行。阿里云函数计算(Function Compute)作为Serverless服务,让开发者无需管理服务器即可运行代码,按需付费,简化开发运维流程。本文从零开始,介绍如何使用阿里云函数计算开发简单的API服务,并探讨其核心优势与最佳实践。通过Python示例,演示创建、部署及优化API的过程,涵盖环境准备、代码实现、性能优化和安全管理等内容,帮助读者快速上手Serverless开发。
|
1月前
|
搜索推荐 数据挖掘 API
淘宝商品描述 API 接口的开发、应用与收益
淘宝商品描述API接口是淘宝开放平台提供的服务,允许开发者编程获取商品详情,如标题、价格、图片等。通过注册账号、申请权限并调用API,可构建比价工具、推荐系统、自动化上架工具等应用,提升用户体验与运营效率,创造新的商业模式。该接口为电商从业者提供了强大的数据支持和创新机会。
90 22

热门文章

最新文章

AI助理

你好,我是AI助理

可以解答问题、推荐解决方案等