OpenAI CEO:巨型AI模型时代已结束,马斯克TruthGPT曝光

简介: OpenAI CEO:巨型AI模型时代已结束,马斯克TruthGPT曝光


编辑:陈萍、杜伟

至于原因,一方面是大模型需要跳出扩展参数规模的范畴,另一方面受限于高昂的训练成本。


近几个月来,OpenAI ChatGPT 的强大生成式对话能力引发了人们对 AI 的新兴趣和投资。随着国内外掀起类 ChatGPT 研发热潮,对话式 AI 及背后的大模型被更多人看好。

但上周在 MIT 的视频发言中,OpenAI CEO Sam Altman 发表了另一番言论。他警告称,诞生 ChatGPT 的研究策略已经结束。至于未来会在哪些方面出现进展尚不清楚。

过去几年,OpenAI 通过采用现有机器学习算法并将它们扩展到以往无法想象的规模,在与语言相关的人工智能领域取得了一系列引人瞩目的进展。其中作为最新的进展,GPT-4 可能使用数万亿文本单词和数千个强大的计算机芯片训练。

GPT-4 在语言、数学、编程、视觉、医学、法律和心理学等多种任务上都有出色的表现。Sam Altman 却对此表示,让模型变得更大(比如巨型模型)将不会进一步带来新进展

Sam Altman 的这番言论表明,在开发和部署新 AI 算法的竞赛中出现了一个意想不到的转折。自去年 11 月 ChatGPT 推出以来,微软利用底层技术在必应搜索中添加了基于它的聊天机器人,谷歌也推出 Bard 竞品。很多人急着尝试使用新型聊天机器人帮助完成工作或个人任务。

与此同时,包括 Anthropic、AI21、Cohere 和 Character.AI 在内众多资金雄厚的初创公司都投入大量资源构建规模更大的算法,以努力追赶 OpenAI。

不过,Sam Altman 的话似乎预示着,GPT-4 可能是 OpenAI 研发更大模型并喂给它们更多数据这一战略的最后一个重大进展。这也可以从他亲自辟谣 GPT-5 的相关传闻中看出一些端倪,他表示目前没有训练 GPT-5,短期内也不会训练

在描述 GPT-4 的论文中,OpenAI 预估扩展模型规模的收益将出现递减。OpenAI 建造数据中心的数量以及建造速度也存在物理限制。

除了大模型设计和架构本身的原因,巨额花费也是一大原因。据报道,ChatGPT 需要至少 10000 个 GPU 进行训练,还需要更多资源保证持续运行。而英伟达专为 AI 和高性能计算设计的最新 H100 GPU 单价高达 30,603 美元,无疑成本高昂。Altman 亲自承认,GPT-4 的训练花费超过了 1 亿美元

Cohere 的联合创始人(曾在谷歌从事 AI 工作)Nick Frosst 表示,Altman 的扩大规模并不能永远奏效的观点听起来是对的。他也认为,Transformer(GPT-4 及竞品的核心机器学习模型类型)的进展已经超出了扩展范畴。除了向模型添加更多参数之外,还有很多其他方法可以使 Transformer 变得更好、更有用。

新的 AI 模型设计或架构以及基于人类反馈的进一步微调成为很多研究人员已经在探索的有前景的方向。

马斯克将 AI 项目命名为 TruthGPT

马斯克这边,虽然嘴上说担忧 GPT-4 引发社会问题,并签署暂停开发比 GPT-4 更强大的系统至少六个月。但实际情况却是马斯克正致力于新建一家人工智能初创公司 X.AI,与 OpenAI 直接展开竞争。

据报道,马斯克已经从英伟达获取了上万块 GPU,这些系统为人工智能和高端图形处理等密集型任务所需的计算提供动力。

马斯克证实了有关他计划创建一家人工智能初创公司,与 ChatGPT 竞争的报道。马斯克在接受福克斯采访时宣布了这项计划,并表示,「我将创建一种称为 TruthGPT 的人工智能平台,或者说是一个最大限度地寻求真理的人工智能,可以理解宇宙的本质。我认为这可能是通往(AI)安全的最佳途径,从某种意义上说,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。」

马斯克在采访中还表示,他相信人工智能具有毁灭文明的潜力,无论(其力量)多么小。

此前,马斯克于 2015 年与 OpenAI 现任 CEO Sam Altman 等人共同创立了 OpenAI,但马斯克于 2018 年离开了公司董事会。据了解,马斯克当时声明的原因是为了避免与特斯拉发生潜在的利益冲突,但后来马斯克表示还有其他原因,另一个原因是他不同意 OpenAI 团队在做的一些事情。

另外据 Semafor  3 月份报道,马斯克曾试图在 2018 年接任公司 CEO 一职,但在 Altman 和其他人拒绝后便离开了。

自从退出 OpenAI 董事会以来,马斯克一再批评 OpenAI。就在今年 2 月,他还表示现在的 OpenAI 根本不是他所希望的,并称 OpenAI 为微软控制的、闭源、利润最大化的公司」。

面多马斯克的多次攻击,Altman 表示即便如此,自己仍将马斯克视为自己的偶像之一,并表示,「我相信马斯克确实对 AGI 安全感到压力,这是可以理解的。」

值得一提的是这不是马斯克第一次考虑打造 TruthGPT。他在 2 月曾经发推说,我们需要的是 TruthGPT。

关于 TruthGPT 的更多细节,马斯克没有透漏更多消息,我们可以后续期待一波。

参考链接:https://www.wired.com/story/openai-ceo-sam-altman-the-age-of-giant-ai-models-is-already-over/https://venturebeat.com/ai/openai-chief-says-age-of-giant-ai-models-is-ending-a-gpu-crisis-could-be-one-

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
3天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
16 2
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
48 2
|
2天前
|
机器学习/深度学习 人工智能 安全
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
AI真的能与人类数据科学家竞争吗?OpenAI的新基准对其进行了测试
|
4天前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
22 6
|
2天前
|
机器学习/深度学习 传感器 人工智能
马斯克的AI机器人可以拯救一个陷入困境的教育系统吗?
马斯克的AI机器人可以拯救一个陷入困境的教育系统吗?
|
12天前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
9天前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
24 4
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
21 1
|
13天前
|
机器学习/深度学习 人工智能 算法
【通义】AI视界|若未来三年无法盈利,OpenAI或被微软收购!
本文精选了24小时内的重要科技新闻,包括苹果即将发布的全新智能家居战略、OpenAI若未来三年无法盈利或被微软收购的消息、Meta建议网友用AI生成极光照片引发争议,以及黄仁勋对马斯克的高度评价。登录通义官网了解更多功能。
|
4天前
|
人工智能 自然语言处理 自动驾驶
【通义】AI视界|微软和 OpenAI 将向媒体提供1000万美元资助,推动其使用AI工具
本文概览了近期科技领域的五大热点事件,包括微软与OpenAI联手资助媒体使用AI工具、OpenAI任命前白宫官员为首任首席经济学家、特斯拉FSD系统遭调查、英伟达市值逼近全球第一、以及AMD新一代锐龙9000X3D系列处理器即将上市的消息。更多资讯,请访问通义官网。