3.6万亿token、3400亿参数,谷歌大模型PaLM 2细节遭曝光

简介: 3.6万亿token、3400亿参数,谷歌大模型PaLM 2细节遭曝光
谷歌内部文件又泄露了,这次是谷歌新一代大模型 PaLM 2 的训练细节: 训练数据量是前代的近 5 倍、参数量是前代的三分之二左右。

上周四,在 2023 谷歌 I/O 大会上,谷歌 CEO 皮查伊宣布推出对标 GPT-4 的大模型 PaLM 2,并正式发布预览版本,改进了数学、代码、推理、多语言翻译和自然语言生成能力。

PaLM 2 模型提供了不同尺寸规模的四个版本,从小到大依次为 Gecko、Otter、Bison 和 Unicorn,更易于针对各种用例进行部署。其中轻量级的 Gecko 模型可以在移动设备上运行,速度非常快,不联网也能在设备上运行出色的交互式应用程序。
不过会上,谷歌并没有给出有关 PaLM 2 的具体技术细节,只说明了它是构建在谷歌最新 JAX 和 TPU v4 之上。

昨日,据外媒 CNBC 看到的内部文件称,PaLM 2 是在 3.6 万亿个 token 上训练。作为对比,上代 PaLM 接受了 7800 亿 token 的训练。

此外,谷歌之前表示 PaLM 2 比以前的 LLM 规模更小,这意味着在完成更复杂任务的同时变得更加高效。这一点也在内部文件中得到了验证,PaLM 2 的训练参数量为 3400 亿,远小于 PaLM 的 5400 亿。

PaLM 2 的训练 token 和参数量与其他家的 LLM 相比如何呢?作为对比,Meta 在 2 月发布的 LLaMA 接受了 1.4 万亿 token 的训练。OpenAI 1750 亿参数的 GPT-3 是在 3000 亿 token 上训练的。

虽然谷歌一直渴望展示其 AI 技术的强大能力以及如何嵌入到搜索、电子邮件、文件处理和电子表格中,但也不愿公布其训练数据的大小或其他细节。其实这样做的不只谷歌一家,OpenAI 也缄口不言其最新多模态大模型 GPT-4 的细节。他们都表示不披露细节是源于业务的竞争属性。

不过,随着 AI 军备竞赛的持续升温,研究界越来越要求提高透明度。并且在前段时间泄露的一份谷歌内部文件中,谷歌内部研究人员表达了这样一种观点:虽然表面看起来 OpenAI 和谷歌在 AI 大模型上你追我赶,但真正的赢家未必会从这两家中产生,因为第三方力量「开源」正在悄然崛起。

目前,这份内部文件的真实性尚未得到验证,谷歌也并未对相关内容置评。

网友评论

在官宣 PaLM 2 之初,就有网友根据 Chinchilla 定律预测其参数量,ta 预测 PaLM 2 模型家族的参数结果为 80B / 90B / 100B 不等,和这次爆料的 340B 还是差距很大的。

还有人对 PaLM 2 的训练成本进行了一波预测,根据历代大模型的发展来看,这位网友表示,打造 PaLM 2 需要耗资 1 亿美元。

PaLM 2 参数都泄密了,可以试着推测 Bard 了,这位网友表示:

随着 PaLM 2 token 数的泄露,网友不禁疑问,在 AGI 到来之前,多少 token 才能迎来一次大转折?

参考链接:https://www.cnbc.com/2023/05/16/googles-palm-2-uses-nearly-five-times-more-text-data-than-predecessor.html

相关文章
|
6月前
|
数据采集 人工智能 自然语言处理
手机可跑,3.8B参数量超越GPT-3.5!微软发布Phi-3技术报告:秘密武器是洗干净数据
【5月更文挑战第16天】微软发布 Phi-3 技术报告,介绍了一个拥有3.8B参数的新语言模型,超越GPT-3.5,成为最大模型之一。 Phi-3 在手机上运行的特性开启了大型模型移动应用新纪元。报告强调数据清洗是关键,通过优化设计实现高效运行。实验显示 Phi-3 在多项NLP任务中表现出色,但泛化能力和数据隐私仍是挑战。该模型预示着AI领域的未来突破。[[论文链接](https://arxiv.org/pdf/2404.14219.pdf)]
81 2
|
6月前
|
人工智能 弹性计算 机器人
马斯克旗下公司宣布开源 Grok-1 模型,参数量达3140亿
最近,Meta基础人工智能研究(FAIR)团队发布了名为Branch-Train-MiX (BTX)的方法,可从种子模型开始,该模型经过分支,以高吞吐量和低通信成本的并行方式训练专家模型。Meta FAIR的成员之一Jason Weston在其X上发文介绍了这一进展。
|
6月前
|
算法
R语言改进的股票配对交易策略分析SPY-TLT组合和中国股市投资组合
R语言改进的股票配对交易策略分析SPY-TLT组合和中国股市投资组合
|
机器学习/深度学习 算法 异构计算
微软新出热乎论文:Transformer扩展到10亿token
微软新出热乎论文:Transformer扩展到10亿token
|
机器学习/深度学习 人工智能 自然语言处理
全能不如专精!微软发布Z-code++屠榜文本摘要,参数量仅为PaLM的1/600
全能不如专精!微软发布Z-code++屠榜文本摘要,参数量仅为PaLM的1/600
174 0
|
机器学习/深度学习 数据采集 移动开发
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec(1)
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec
306 0
|
数据采集 机器学习/深度学习 搜索推荐
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec(2)
覆盖四种场景、包含正负向反馈,腾讯、西湖大学等发布推荐系统公开数据集Tenrec
196 0
|
存储 机器学习/深度学习 人工智能
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
参数量1/50,Meta发布110亿参数模型,击败谷歌PaLM
168 0
|
存储 机器学习/深度学习 人工智能
谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文
谷歌没开源的PaLM,网友给开源了!千亿参数微缩版:最大只有10亿,8k上下文
334 0
|
机器学习/深度学习 编解码 自然语言处理
CV开启大模型时代!谷歌发布史上最大ViT:220亿参数,视觉感知力直逼人类
CV开启大模型时代!谷歌发布史上最大ViT:220亿参数,视觉感知力直逼人类
279 0