OpenAI更新GPT-4等模型,新增API函数调用,价格最高降75%

简介: OpenAI更新GPT-4等模型,新增API函数调用,价格最高降75%


编辑:陈萍

OpenAI 的模型开始增量降价了。


前些天,OpenAI 的 CEO Sam Altman 在全球巡回演讲中,透漏了 OpenAI 近期发展路线,主要分两个阶段,2023 年的首要任务是推出更便宜、更快的 GPT-4,更长的上下文窗口等;2024 年重点是多模态。

OpenAI 2023 年的这些目标正在逐一实现。从 ChatGPT 推出至今,短短几个月,OpenAI 在 GPT-3.5 Turbo、GPT-4 等这些模型的基础上构建了令人难以置信的应用程序。当地时间 6 月 13 日,OpenAI 发布函数调用及其他 API 更新,具体包括:


  • 在 Chat Completions API 中新增新的函数调用,能让模型在需要的时候调用函数并生成对应的 JSON 对象作为输出;
  • 更新和更可操纵版本的 GPT-4 和 GPT-3.5 Turbo;
  • 16k 上下文版本的 gpt-3.5-turbo(标准的是 4k 版本);
  • 最先进的嵌入模型(embeddings model)成本降低了 75%;
  • gpt-3.5-turbo 输入 token 成本降低 25%;
  • 宣布 gpt-3.5-turbo-0301 和 gpt-4-0314 型号的弃用时间表。


OpenAI 表示:API 中的 GPT-4 和 GPT-3.5 Turbo 模型现在支持调用用户自定义函数,允许模型使用用户为其设计的工具。此外,用户使用模型的价格降低了,OpenAI 也发布了一些新的型号版本(包括 16k 上下文 GPT-3.5 Turbo):



函数调用


现在开发人员可以向 gpt-4-0613 和 gpt-3.5-turbo-0613 描述函数,并让模型智能地选择输出一个包含调用这些函数所需参数的 JSON 对象。这是一种更可靠地将 GPT 的能力与外部工具和 API 连接起来的新方法。


模型经过微调,既可以检测何时需要调用函数(取决于用户的输入),又可以使用符合函数签名的 JSON 进行响应。函数调用使开发人员可以更可靠地从模型中获取结构化数据。例如,开发人员可以:


  • 创建聊天机器人,通过调用外部工具来回答问题(像 ChatGPT 插件一样):


例如将诸如「给 Anya 发电子邮件,问问她下周五是否想喝咖啡」之类的查询转换为函数调用 send_email (to: string, body: string) ;或者将「波士顿的天气怎么样?」 转换为 get_current_weather (location: string, unit: 'celsius' | 'fahrenheit')。



  • 将自然语言转换为 API 调用或数据库查询:


例如将「谁是我这个月的十大客户?」转换为内部 API 调用 get_customers_by_revenue (start_date: string, end_date: string, limit: int);又或者将「Acme 公司上个月下了多少订单?」转化为 SQL 查询 sql_query (query: string)。


  • 从文本中提取数据结构:


例如定义一个名为 extract_people_data (people: [{name: string, birthday: string, location: string}]) 的函数,用来提取维基百科中提到的所有人。



以上这些用例由 /v1/chat/completions 端点、functions 和 function_call 中的新 API 参数启用,允许开发人员通过 JSON 模式向模型描述函数,并选择要求它调用特定函数。


函数调用示例


例如用户询问「现在波士顿的天气怎么样?」,经过一系列处理后,最终模型输出答案:「波士顿目前天气晴朗,气温为 22 摄氏度。」



下图对应上图中的第一步,包括请求和响应:



新模型


首先是 GPT-4:


  • gpt-4-0613 包含了一个更新和改进的函数调用模型。
  • gpt-4-32k-0613 包括与 gpt-4-0613 相同的改进,以及扩展的上下文长度,以理解更大的文本。

然后是 GPT - 3.5 Turbo:


  • gpt-3.5-turbo-0613 包含与 GPT-4 相同的函数调用,以及通过系统消息更可靠的可操作性,开发人员可以利用这两个特性更加有效地指导模型进行响应。
  • gpt-3.5-turbo-16k 提供的上下文长度是 gpt-3.5-turbo 的 4 倍,价格是 gpt-3.5-turbo 的两倍:每 1K 输入 token 0.003 美元,每 1K 输出 token 0.004 美元。16k 上下文意味着该模型现在可以在单个请求中支持大约 20 页的文本。

模型弃用


3 月发布的 gpt-4 和 gpt-3.5-turbo 的初始版本将进行弃用和升级。应用程序将使用更稳定的模型 gpt-3.5-turbo、 gpt-4 和 gpt-4-32k,这些模型将于 6 月 27 日自动升级。如果大家想对不同版本的模型进行比较,可以使用 Eval 库进行公共和私有评估。


此外,那些需要过渡时间的开发人员可以继续使用旧版本的模型 gpt-3.5-turbo-0301、gpt-4-0314 或 gpt-4-32k-0314,但在 9 月 13 号之后,在请求使用这些模型,将会失败。想要了解更多模型弃用消息,可参考:


模型弃用查询:https://platform.openai.com/docs/deprecations/


此外,本次更新价格更低了,Text-embedding-ada-002 是嵌入系统最流行的嵌入模型。如今,其成本降低了 75%,低至每 1K token 0.0001 美元。


最后,还有大家比较关注的 GPT - 3.5 Turbo,其为数百万用户提供了 ChatGPT 功能。现今,gpt-3.5-turbo 的输入 token 成本降低了 25%。开发人员现在使用这个模型,每 1K 输入 token 只需 0.0015 美元,每 1K 输出 token 只需 0.002 美元,这相当于每美元大约 700 页。


参考文献:https://openai.com/blog/function-calling-and-other-api-updates

相关文章
|
3月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
292 2
|
1月前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。
|
3天前
|
自然语言处理 安全 API
API First:模型驱动的阿里云API保障体系
本文介绍了阿里云在API设计和管理方面的最佳实践。首先,通过API First和模型驱动的方式确保API的安全、稳定和效率。其次,分享了阿里云内部如何使用CloudSpec IDL语言及配套工具保障API质量,并实现自动化生成多语言SDK等工具。接着,描述了API从设计到上线的完整生命周期,包括规范校验、企业级能力接入、测试和发布等环节。最后,展望了未来,强调了持续提升API质量和开源CloudSpec IDL的重要性,以促进社区共建更好的API生态。
|
14天前
|
存储 人工智能 API
AgentScope:阿里开源多智能体低代码开发平台,支持一键导出源码、多种模型API和本地模型部署
AgentScope是阿里巴巴集团开源的多智能体开发平台,旨在帮助开发者轻松构建和部署多智能体应用。该平台提供分布式支持,内置多种模型API和本地模型部署选项,支持多模态数据处理。
131 4
AgentScope:阿里开源多智能体低代码开发平台,支持一键导出源码、多种模型API和本地模型部署
|
22小时前
|
JSON API 数据格式
京东商品SKU价格接口(Jd.item_get)丨京东API接口指南
京东商品SKU价格接口(Jd.item_get)是京东开放平台提供的API,用于获取商品详细信息及价格。开发者需先注册账号、申请权限并获取密钥,随后通过HTTP请求调用API,传入商品ID等参数,返回JSON格式的商品信息,包括价格、原价等。接口支持GET/POST方式,适用于Python等语言的开发环境。
26 11
|
27天前
|
数据采集 人工智能 数据可视化
InternVL 2.5,首个MMMU超过70%的开源模型,性能媲美GPT-4o
近期Internvl2.5发布,性能与GPT-4o和Claude-3.5-sonnet等领先的商业模型相媲美,成为首个在MMMU上超过70%的开源模型,通过链式思考(CoT)推理实现了3.7个百分点的提升,展示了强大的测试时间可扩展性潜力。
|
12天前
|
人工智能 自然语言处理 机器人
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
OpenAI推出具有图像上传和分析功能的完整o1模型,并首次推出ChatGPT Pro
|
1月前
|
人工智能 自然语言处理 计算机视觉
OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
OpenAI近期发布了Simplified Consistency Models (sCM) 技术,这是在扩散模型基础上的重大改进,实现了50倍效率提升。sCM通过简化和稳定连续时间一致性模型的训练过程,解决了传统模型中的离散化误差和训练不稳定性问题,显著提升了生成模型的性能和效率。在多个数据集上的测试结果表明,sCM不仅超越了现有模型,还在生成模型的实际应用中展现了巨大潜力。论文地址:https://arxiv.org/abs/2410.11081
49 3
|
2月前
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
|
2月前
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。