OpenAI发布Model Spec,揭示其期望AI如何行动

简介: OpenAI发布Model Spec,揭示其期望AI如何行动

本文来自 企业网D1net公众号

OpenAI致力于实现其名称中的“开放”一词的含义。尽管没有将其新模型开源,OpenAI本周公开了更多关于其如何处理AI技术及其可能加剧或促成的问题(例如虚假信息/深度伪造)的信息,以及未来的计划。


OpenAI推出了Model Spec,这是一个旨在塑造 OpenAI 应用程序编程接口(API)和 ChatGPT 中使用的 AI 模型行为的框架文件,并通过这里的网络表单征求公众反馈,开放至 5月22日。


正如 OpenAI 的联合创始人兼 CEO Sam Altman 在 X 上发布的:“我们将倾听、讨论并随时间调整这些内容,但我认为明确什么是错误 vs. 什么是决策将非常有用。”


为什么 OpenAI 要发布Model Spec?


OpenAI 表示,发布这份工作文件是其更广泛使命的一部分,旨在确保 AI 技术以对所有用户有益且安全的方式运行。


这个过程当然容易说难做,而且很快就会涉及到关于技术、智能系统、计算、工具以及更广泛的社会问题的长期未解决的哲学辩论。


正如 OpenAI 在其推出Model Spec的博客文章中所写:


“即使一个模型旨在广泛地对用户有益,这些意图在实践中可能会发生冲突。例如,一家安全公司可能想生成钓鱼邮件作为合成数据,以训练和开发分类器来保护其客户,但如果这一功能被诈骗者使用,则具有害性。”


通过分享首份草案,OpenAI 希望公众能深入参与关于 AI 开发中涉及的伦理和实践考虑的讨论。用户可以通过 OpenAI 网站上的模型规格反馈表在接下来的两周内提交他们的评论。


此后,OpenAI 表示将“在接下来的一年里分享关于Model Spec的变更、我们对反馈的回应以及我们在塑造模型行为方面的研究进展的更新”。


尽管 OpenAI 在今天发布Model Spec的博客文章中没有具体说明它如何影响其 AI 模型的行为——以及模型规格中写入的一些原则是否包含在用于在向公众提供之前对 AI 系统进行对齐的“系统提示”或“预提示”中——但可以安全地假设这对它有重大影响。


在某些方面,模型规范对我而言似乎类似于竞争对手 Anthropic AI 的“宪法”式 AI 开发方法,这最初是一个主要的区别点,但后者公司已经有一段时间没有广泛强调这一点了。


AI 行为框架


模型规范围绕三个主要组成部分构建:目标、规则和默认行为。这些元素作为指导 AI 模型与人类用户互动的支柱,确保它们不仅有效,而且遵循道德标准。


1. 目标:该文档设定了旨在帮助开发者和最终用户的广泛、总体原则。这些包括帮助用户高效地实现他们的目标,考虑对不同利益相关者的潜在影响,以及维护 OpenAI 承诺在社区中的正面形象。


2. 规则:为了导航复杂的 AI 互动景观,模型规范建立了清晰的规则。这些规则要求遵守适用的法律,尊重知识产权,保护隐私,并严格禁止生成不适合工作场所(NSFW)的内容。


3. 默认行为:指南强调假设良好意图的重要性,必要时提出澄清问题,并尽可能提供帮助而不越界。这些默认设置旨在在不同用户和用例的多样化需求之间促进平衡。


有些像宾夕法尼亚大学沃顿商学院的 AI 影响者和教授 Ethan Mollick 将其比作科幻作家 Isaac Asimov 于 1942 年开发的虚构的“机器人三定律”。


其他人对 OpenAI 的模型规范如何影响 ChatGPT 或其他 AI 模型的行为提出了问题。正如技术作家 Andrew Curran 在 X 上指出的,OpenAI 在模型规范中包含的一个示例显示了一个假想的“AI 助手”在用户错误宣称地球是平的时不反驳用户并退缩。


持续的参与和发展


OpenAI 认识到模型规范是一个不断发展的文件。它不仅反映了组织当前的实践,也是一个将根据持续的研究和社区反馈进行调整的动态框架。


这种咨询性方法旨在收集来自全球利益相关者(如政策制定者、信任机构和领域专家)的多样化观点。


收到的反馈将在完善模型规范和塑造未来 AI 模型的发展中扮演关键角色。


OpenAI 计划持续向公众更新从这种反馈循环中获得的变化和见解,以此强化其对负责任的 AI 发展的承诺。


未来的发展方向


通过明确定义 AI 模型应如何行为的模型规范,并持续寻求全球社区的输入,OpenAI 旨在培养一个环境,在这个环境中 AI 可以作为社会中的积极力量蓬勃发展 —— 即使在面临诉讼和因未经明确同意而训练艺术家作品的批评时也是如此。


相关文章
|
26天前
|
人工智能 安全 UED
[AI OpenAI] 新闻编辑室AI催化剂:与WAN-IFRA的全球项目
OpenAI与WAN-IFRA合作推出新闻编辑室AI催化剂,这是一个全球加速器项目,旨在帮助100多家新闻出版商在其编辑室中集成AI,以增强内容创建、效率和用户体验。
|
26天前
|
人工智能 搜索推荐 Java
[AI OpenAI] MavenAGI推出由OpenAI驱动的自动化客户支持代理
MavenAGI推出了一款由GPT-4驱动的AI客户服务代理,为Tripadvisor和HubSpot等公司提高了效率并降低了成本。
[AI OpenAI] MavenAGI推出由OpenAI驱动的自动化客户支持代理
|
18天前
|
机器学习/深度学习 人工智能 监控
[AI OpenAI] 提取GPT-4中的概念
研究人员采用新的可扩展方法,将GPT-4的内部表示分解为1600万个通常可解释的模式,这些模式被称为“特征”,目的是提高语言模型的透明度和可解释性。
[AI OpenAI] 提取GPT-4中的概念
|
19天前
|
存储 人工智能 Kubernetes
[AI OpenAI] 保护前沿AI研究基础设施的安全
概述支持OpenAI前沿AI模型安全训练的架构。
[AI OpenAI] 保护前沿AI研究基础设施的安全
|
8天前
|
人工智能 机器人 API
OpenAI发布新AI模型GPT-4o和桌面版ChatGPT
OpenAI发布新AI模型GPT-4o和桌面版ChatGPT
|
1月前
|
人工智能 JavaScript 前端开发
[译][AI OpenAI-doc] 库
我们提供了Python库和TypeScript / JavaScript库,支持各种运行时。安装后,您可以使用您的秘钥来运行库中提供的功能。微软的Azure团队也维护了与OpenAI API和Azure OpenAI服务兼容的库。此外,还有许多由社区构建和维护的其他库可供使用。请注意,OpenAI不验证这些项目的正确性或安全性。
|
1月前
|
人工智能 缓存 API
[译][AI OpenAI-doc] 错误代码
本指南包括关于您可能从 API 和我们官方的 Python 库中看到的错误代码的概述。概述中提到的每个错误代码都有一个专门的部分,提供进一步的指导。
|
1月前
|
存储 人工智能 安全
[译][AI OpenAI-doc] 弃用
随着我们推出更安全、更功能强大的模型,我们定期淘汰旧模型。依赖OpenAI模型的软件可能需要偶尔更新以保持正常工作。受影响的客户将始终通过电子邮件和我们的文档以及博客文章(针对较大的更改)收到通知。本页面列出了所有API弃用情况,以及推荐的替代方案。
|
1月前
|
人工智能 JSON 自然语言处理
[AI OpenAI-doc] 动作入门指南
为GPT创建一个动作需要3个步骤:构建一个API、以OpenAPI YAML或JSON格式记录API、在ChatGPT UI中将Schema暴露给你的GPT。本文将重点介绍通过为GPT定义自定义动作来创建一个待办事项列表GPT。
|
1月前
|
人工智能 测试技术 API
[AI OpenAI-doc] GPT中的动作
学习如何构建一个智能调用你的API的GPT动作。GPT提供了深度定制ChatGPT以满足特定用例的能力,以及自定义功能。

热门文章

最新文章