本文来自 企业网D1net公众号
OpenAI致力于实现其名称中的“开放”一词的含义。尽管没有将其新模型开源,OpenAI本周公开了更多关于其如何处理AI技术及其可能加剧或促成的问题(例如虚假信息/深度伪造)的信息,以及未来的计划。
OpenAI推出了Model Spec,这是一个旨在塑造 OpenAI 应用程序编程接口(API)和 ChatGPT 中使用的 AI 模型行为的框架文件,并通过这里的网络表单征求公众反馈,开放至 5月22日。
正如 OpenAI 的联合创始人兼 CEO Sam Altman 在 X 上发布的:“我们将倾听、讨论并随时间调整这些内容,但我认为明确什么是错误 vs. 什么是决策将非常有用。”
为什么 OpenAI 要发布Model Spec?
OpenAI 表示,发布这份工作文件是其更广泛使命的一部分,旨在确保 AI 技术以对所有用户有益且安全的方式运行。
这个过程当然容易说难做,而且很快就会涉及到关于技术、智能系统、计算、工具以及更广泛的社会问题的长期未解决的哲学辩论。
正如 OpenAI 在其推出Model Spec的博客文章中所写:
“即使一个模型旨在广泛地对用户有益,这些意图在实践中可能会发生冲突。例如,一家安全公司可能想生成钓鱼邮件作为合成数据,以训练和开发分类器来保护其客户,但如果这一功能被诈骗者使用,则具有害性。”
通过分享首份草案,OpenAI 希望公众能深入参与关于 AI 开发中涉及的伦理和实践考虑的讨论。用户可以通过 OpenAI 网站上的模型规格反馈表在接下来的两周内提交他们的评论。
此后,OpenAI 表示将“在接下来的一年里分享关于Model Spec的变更、我们对反馈的回应以及我们在塑造模型行为方面的研究进展的更新”。
尽管 OpenAI 在今天发布Model Spec的博客文章中没有具体说明它如何影响其 AI 模型的行为——以及模型规格中写入的一些原则是否包含在用于在向公众提供之前对 AI 系统进行对齐的“系统提示”或“预提示”中——但可以安全地假设这对它有重大影响。
在某些方面,模型规范对我而言似乎类似于竞争对手 Anthropic AI 的“宪法”式 AI 开发方法,这最初是一个主要的区别点,但后者公司已经有一段时间没有广泛强调这一点了。
AI 行为框架
模型规范围绕三个主要组成部分构建:目标、规则和默认行为。这些元素作为指导 AI 模型与人类用户互动的支柱,确保它们不仅有效,而且遵循道德标准。
1. 目标:该文档设定了旨在帮助开发者和最终用户的广泛、总体原则。这些包括帮助用户高效地实现他们的目标,考虑对不同利益相关者的潜在影响,以及维护 OpenAI 承诺在社区中的正面形象。
2. 规则:为了导航复杂的 AI 互动景观,模型规范建立了清晰的规则。这些规则要求遵守适用的法律,尊重知识产权,保护隐私,并严格禁止生成不适合工作场所(NSFW)的内容。
3. 默认行为:指南强调假设良好意图的重要性,必要时提出澄清问题,并尽可能提供帮助而不越界。这些默认设置旨在在不同用户和用例的多样化需求之间促进平衡。
有些像宾夕法尼亚大学沃顿商学院的 AI 影响者和教授 Ethan Mollick 将其比作科幻作家 Isaac Asimov 于 1942 年开发的虚构的“机器人三定律”。
其他人对 OpenAI 的模型规范如何影响 ChatGPT 或其他 AI 模型的行为提出了问题。正如技术作家 Andrew Curran 在 X 上指出的,OpenAI 在模型规范中包含的一个示例显示了一个假想的“AI 助手”在用户错误宣称地球是平的时不反驳用户并退缩。
持续的参与和发展
OpenAI 认识到模型规范是一个不断发展的文件。它不仅反映了组织当前的实践,也是一个将根据持续的研究和社区反馈进行调整的动态框架。
这种咨询性方法旨在收集来自全球利益相关者(如政策制定者、信任机构和领域专家)的多样化观点。
收到的反馈将在完善模型规范和塑造未来 AI 模型的发展中扮演关键角色。
OpenAI 计划持续向公众更新从这种反馈循环中获得的变化和见解,以此强化其对负责任的 AI 发展的承诺。
未来的发展方向
通过明确定义 AI 模型应如何行为的模型规范,并持续寻求全球社区的输入,OpenAI 旨在培养一个环境,在这个环境中 AI 可以作为社会中的积极力量蓬勃发展 —— 即使在面临诉讼和因未经明确同意而训练艺术家作品的批评时也是如此。