OpenAI更新GPT-4等模型,新增API函数调用,价格最高降75%

简介: OpenAI更新GPT-4等模型,新增API函数调用,价格最高降75%


编辑:陈萍

OpenAI 的模型开始增量降价了。


前些天,OpenAI 的 CEO Sam Altman 在全球巡回演讲中,透漏了 OpenAI 近期发展路线,主要分两个阶段,2023 年的首要任务是推出更便宜、更快的 GPT-4,更长的上下文窗口等;2024 年重点是多模态。

OpenAI 2023 年的这些目标正在逐一实现。从 ChatGPT 推出至今,短短几个月,OpenAI 在 GPT-3.5 Turbo、GPT-4 等这些模型的基础上构建了令人难以置信的应用程序。当地时间 6 月 13 日,OpenAI 发布函数调用及其他 API 更新,具体包括:


  • 在 Chat Completions API 中新增新的函数调用,能让模型在需要的时候调用函数并生成对应的 JSON 对象作为输出;
  • 更新和更可操纵版本的 GPT-4 和 GPT-3.5 Turbo;
  • 16k 上下文版本的 gpt-3.5-turbo(标准的是 4k 版本);
  • 最先进的嵌入模型(embeddings model)成本降低了 75%;
  • gpt-3.5-turbo 输入 token 成本降低 25%;
  • 宣布 gpt-3.5-turbo-0301 和 gpt-4-0314 型号的弃用时间表。


OpenAI 表示:API 中的 GPT-4 和 GPT-3.5 Turbo 模型现在支持调用用户自定义函数,允许模型使用用户为其设计的工具。此外,用户使用模型的价格降低了,OpenAI 也发布了一些新的型号版本(包括 16k 上下文 GPT-3.5 Turbo):



函数调用


现在开发人员可以向 gpt-4-0613 和 gpt-3.5-turbo-0613 描述函数,并让模型智能地选择输出一个包含调用这些函数所需参数的 JSON 对象。这是一种更可靠地将 GPT 的能力与外部工具和 API 连接起来的新方法。


模型经过微调,既可以检测何时需要调用函数(取决于用户的输入),又可以使用符合函数签名的 JSON 进行响应。函数调用使开发人员可以更可靠地从模型中获取结构化数据。例如,开发人员可以:


  • 创建聊天机器人,通过调用外部工具来回答问题(像 ChatGPT 插件一样):


例如将诸如「给 Anya 发电子邮件,问问她下周五是否想喝咖啡」之类的查询转换为函数调用 send_email (to: string, body: string) ;或者将「波士顿的天气怎么样?」 转换为 get_current_weather (location: string, unit: 'celsius' | 'fahrenheit')。



  • 将自然语言转换为 API 调用或数据库查询:


例如将「谁是我这个月的十大客户?」转换为内部 API 调用 get_customers_by_revenue (start_date: string, end_date: string, limit: int);又或者将「Acme 公司上个月下了多少订单?」转化为 SQL 查询 sql_query (query: string)。


  • 从文本中提取数据结构:


例如定义一个名为 extract_people_data (people: [{name: string, birthday: string, location: string}]) 的函数,用来提取维基百科中提到的所有人。



以上这些用例由 /v1/chat/completions 端点、functions 和 function_call 中的新 API 参数启用,允许开发人员通过 JSON 模式向模型描述函数,并选择要求它调用特定函数。


函数调用示例


例如用户询问「现在波士顿的天气怎么样?」,经过一系列处理后,最终模型输出答案:「波士顿目前天气晴朗,气温为 22 摄氏度。」



下图对应上图中的第一步,包括请求和响应:



新模型


首先是 GPT-4:


  • gpt-4-0613 包含了一个更新和改进的函数调用模型。
  • gpt-4-32k-0613 包括与 gpt-4-0613 相同的改进,以及扩展的上下文长度,以理解更大的文本。

然后是 GPT - 3.5 Turbo:


  • gpt-3.5-turbo-0613 包含与 GPT-4 相同的函数调用,以及通过系统消息更可靠的可操作性,开发人员可以利用这两个特性更加有效地指导模型进行响应。
  • gpt-3.5-turbo-16k 提供的上下文长度是 gpt-3.5-turbo 的 4 倍,价格是 gpt-3.5-turbo 的两倍:每 1K 输入 token 0.003 美元,每 1K 输出 token 0.004 美元。16k 上下文意味着该模型现在可以在单个请求中支持大约 20 页的文本。

模型弃用


3 月发布的 gpt-4 和 gpt-3.5-turbo 的初始版本将进行弃用和升级。应用程序将使用更稳定的模型 gpt-3.5-turbo、 gpt-4 和 gpt-4-32k,这些模型将于 6 月 27 日自动升级。如果大家想对不同版本的模型进行比较,可以使用 Eval 库进行公共和私有评估。


此外,那些需要过渡时间的开发人员可以继续使用旧版本的模型 gpt-3.5-turbo-0301、gpt-4-0314 或 gpt-4-32k-0314,但在 9 月 13 号之后,在请求使用这些模型,将会失败。想要了解更多模型弃用消息,可参考:


模型弃用查询:https://platform.openai.com/docs/deprecations/


此外,本次更新价格更低了,Text-embedding-ada-002 是嵌入系统最流行的嵌入模型。如今,其成本降低了 75%,低至每 1K token 0.0001 美元。


最后,还有大家比较关注的 GPT - 3.5 Turbo,其为数百万用户提供了 ChatGPT 功能。现今,gpt-3.5-turbo 的输入 token 成本降低了 25%。开发人员现在使用这个模型,每 1K 输入 token 只需 0.0015 美元,每 1K 输出 token 只需 0.002 美元,这相当于每美元大约 700 页。


参考文献:https://openai.com/blog/function-calling-and-other-api-updates

相关文章
|
2月前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
225 2
|
2月前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
147 2
|
18天前
|
Go 开发工具
百炼-千问模型通过openai接口构建assistant 等 go语言
由于阿里百炼平台通义千问大模型没有完善的go语言兼容openapi示例,并且官方答复assistant是不兼容openapi sdk的。 实际使用中发现是能够支持的,所以自己写了一个demo test示例,给大家做一个参考。
|
2月前
|
数据采集 API 决策智能
华为诺亚联合中科大发布工具调用模型ToolACE,效果持平GPT-4获开源第一
 【10月更文挑战第10天】华为诺亚方舟实验室与中国科学技术大学合作推出ToolACE,一种自进化合成过程的工具调用模型。ToolACE通过多智能体交互和双重验证系统生成准确、复杂、多样化的工具学习数据,显著提升大型语言模型(LLM)的功能调用能力。实验结果显示,使用ToolACE数据训练的80亿参数模型性能媲美GPT-4,在伯克利功能调用排行榜上获得开源第一。
87 4
|
13天前
|
数据采集 人工智能 数据可视化
InternVL 2.5,首个MMMU超过70%的开源模型,性能媲美GPT-4o
近期Internvl2.5发布,性能与GPT-4o和Claude-3.5-sonnet等领先的商业模型相媲美,成为首个在MMMU上超过70%的开源模型,通过链式思考(CoT)推理实现了3.7个百分点的提升,展示了强大的测试时间可扩展性潜力。
|
5天前
|
JSON 自然语言处理 Java
OpenAI API深度解析:参数、Token、计费与多种调用方式
随着人工智能技术的飞速发展,OpenAI API已成为许多开发者和企业的得力助手。本文将深入探讨OpenAI API的参数、Token、计费方式,以及如何通过Rest API(以Postman为例)、Java API调用、工具调用等方式实现与OpenAI的交互,并特别关注调用具有视觉功能的GPT-4o使用本地图片的功能。此外,本文还将介绍JSON模式、可重现输出的seed机制、使用代码统计Token数量、开发控制台循环聊天,以及基于最大Token数量的消息列表限制和会话长度管理的控制台循环聊天。
44 7
|
21天前
|
人工智能 自然语言处理 计算机视觉
OpenAI发布sCM提升50倍效率,扩散模型重大技术突破!
OpenAI近期发布了Simplified Consistency Models (sCM) 技术,这是在扩散模型基础上的重大改进,实现了50倍效率提升。sCM通过简化和稳定连续时间一致性模型的训练过程,解决了传统模型中的离散化误差和训练不稳定性问题,显著提升了生成模型的性能和效率。在多个数据集上的测试结果表明,sCM不仅超越了现有模型,还在生成模型的实际应用中展现了巨大潜力。论文地址:https://arxiv.org/abs/2410.11081
41 3
|
28天前
|
自然语言处理 搜索推荐 Serverless
基于函数计算部署GPT-Sovits模型实现语音生成
阿里云开发者社区邀请您参加“基于函数计算部署GPT-Sovits模型实现语音生成”活动。完成指定任务即可获得收纳箱一个。活动时间从即日起至2024年12月13日24:00:00。快来报名吧!
|
28天前
|
弹性计算 自然语言处理 搜索推荐
活动实践 | 基于函数计算部署GPT-Sovits模型实现语音生成
通过阿里云函数计算部署GPT-Sovits模型,可快速实现个性化声音的文本转语音服务。仅需少量声音样本,即可生成高度仿真的语音。用户无需关注服务器维护与环境配置,享受按量付费及弹性伸缩的优势,轻松部署并体验高质量的语音合成服务。
|
1月前
|
人工智能 计算机视觉 网络架构
OpenAI攻克扩散模型短板,清华校友路橙、宋飏合作最新论文
扩散模型在生成AI领域取得显著成果,但其训练不稳定性和采样速度慢限制了发展。OpenAI与清华校友合作,提出连续时间一致性模型(CMs),通过TrigFlow等创新解决了这些问题,大幅提升了训练稳定性和计算效率,实现了与最优模型相当的样本质量,同时减少了计算资源消耗。
42 2