43_PaLM与Gemma:谷歌LLM演进

本文涉及的产品
模型训练 PAI-DLC,100CU*H 3个月
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 在人工智能发展的浪潮中,谷歌一直扮演着关键的技术引领者角色。从最初的神经机器翻译到如今的通用人工智能,谷歌通过持续的技术创新推动着自然语言处理领域的边界不断拓展。2022年,谷歌推出了革命性的PaLM(Pathways Language Model),这一模型不仅在规模上达到了前所未有的5400亿参数,更重要的是其采用了创新的Pathways训练方法,为大型语言模型的发展开辟了新路径。随后,谷歌又推出了Gemma系列开源模型,将先进的AI技术普惠给更广泛的开发者社区。

引言:谷歌在大语言模型领域的探索之路

在人工智能发展的浪潮中,谷歌一直扮演着关键的技术引领者角色。从最初的神经机器翻译到如今的通用人工智能,谷歌通过持续的技术创新推动着自然语言处理领域的边界不断拓展。2022年,谷歌推出了革命性的PaLM(Pathways Language Model),这一模型不仅在规模上达到了前所未有的5400亿参数,更重要的是其采用了创新的Pathways训练方法,为大型语言模型的发展开辟了新路径。随后,谷歌又推出了Gemma系列开源模型,将先进的AI技术普惠给更广泛的开发者社区。

本文将深入探讨PaLM与Gemma这两个具有里程碑意义的大语言模型,分析它们的技术架构、训练方法、性能表现以及在实际应用中的突破。我们将重点关注PaLM的独特训练路径以及Gemma如何继承和发展这一技术路线,从而形成谷歌在大语言模型领域的完整技术演进体系。通过对这些模型的深入解析,我们可以更好地理解谷歌在AI领域的战略布局以及未来的发展方向。

谷歌LLM演进路径:
BERT → T5 → LaMDA → PaLM → PaLM 2 → Gemini → Gemma系列

第一章:PaLM的诞生与技术架构

1.1 Pathways系统:革命性的训练框架

PaLM的核心创新在于其背后的Pathways系统。Pathways是谷歌开发的一种新型机器学习系统架构,旨在支持更高效、更灵活的大规模模型训练。这一系统允许单个模型处理多种任务,并能够在不同任务间共享知识,从而大大提高了模型的泛化能力和效率。

传统的大型模型训练通常采用单任务训练或顺序多任务训练的方式,这种方法存在以下问题:

  1. 资源利用率低:不同任务需要独立训练或依次训练,无法充分利用计算资源
  2. 知识难以迁移:不同任务之间的知识共享有限,需要更多的数据和计算
  3. 模型规模受限:受限于单台设备或简单分布式系统的能力

而Pathways系统通过以下创新解决了这些问题:

  1. 高效并行训练:支持在数千台TPU上同时训练一个模型
  2. 动态计算图:能够根据不同任务动态调整计算路径
  3. 任务间知识共享:通过共享表示学习实现跨任务知识迁移

PaLM模型正是在这一系统上训练的首个大规模语言模型,其训练过程充分利用了Pathways系统的优势。

1.2 PaLM的架构特点

PaLM采用了基于Transformer的架构,但在多个关键方面进行了创新和优化:

1.2.1 标准Transformer架构的扩展

PaLM的基础架构是标准的Transformer解码器,但进行了以下扩展:

  1. SwiGLU激活函数:相比传统的ReLU或GELU激活函数,SwiGLU提供了更好的模型性能和训练稳定性
  2. 并行层设计:减少了层间依赖,提高了训练效率
  3. 多查询注意力机制:通过优化注意力计算,降低了内存占用和计算复杂度

1.2.2 模型规模与变体

PaLM系列提供了多种规模的模型变体,以适应不同的应用场景:

模型变体 参数规模 应用场景
PaLM-8B 80亿参数 资源受限环境,边缘设备
PaLM-62B 620亿参数 一般应用,中等规模部署
PaLM-540B 5400亿参数 复杂推理,高精度任务

其中,PaLM-540B是当时(2022年)最大的密集参数语言模型之一,其规模比之前的GPT-3(1750亿参数)大了三倍多。

1.3 PaLM的训练过程与数据集

1.3.1 大规模分布式训练

PaLM-540B模型的训练是在6144个TPU v4芯片上进行的,这是当时规模最大的模型训练之一。训练过程采用了模型并行、数据并行和流水线并行的混合策略,充分利用了Pathways系统的优势。

训练过程中的关键技术包括:

  1. ZeRO优化器:减少内存占用,提高训练效率
  2. 梯度检查点:通过重新计算部分中间激活值来节省内存
  3. 自适应学习率:根据训练进展动态调整学习率
  4. 混合精度训练:使用FP16和BF16混合精度,平衡精度和效率

1.3.2 高质量训练数据集

PaLM的训练数据集包含约7800亿个文本标记,涵盖了广泛的文本类型和领域:

  1. 网页文本:经过筛选的高质量网页内容
  2. 书籍:涵盖小说、非虚构文学等多种类型
  3. 代码:来自GitHub等平台的开源代码库
  4. 社交媒体:经过过滤的对话和讨论内容
  5. 多语言内容:支持多种语言的训练数据

数据集的质量控制非常严格,包括多层过滤机制,以确保训练数据的多样性、准确性和无偏性。

第二章:PaLM的性能与能力突破

2.1 少样本学习能力

PaLM在少样本学习(Few-shot Learning)任务上展现出了卓越的性能。少样本学习是指模型能够通过少量示例快速适应新任务的能力,这对于通用人工智能至关重要。

2.1.1 基准测试表现

在BIG-bench等基准测试中,PaLM的5-shot(提供5个示例)表现超过了人类的平均水平,特别是在以下任务中表现突出:

  1. 自然语言理解:文本分类、情感分析等任务
  2. 逻辑推理:数学问题解决、逻辑演绎等
  3. 代码生成:根据自然语言描述生成代码
  4. 多语言翻译:跨语言理解和生成

2.1.2 与其他模型的对比

模型 MMLU (5-shot) BIG-bench (5-shot) Human (平均)
PaLM-540B 78.8% 67.3% 65.3%
GPT-3 (175B) 67.0% 未公布 65.3%
LaMDA (137B) 未公布 未公布 65.3%

从上表可以看出,PaLM-540B在少样本学习任务上的表现明显优于之前的模型,甚至在某些任务上超过了人类的平均水平。

2.2 思维链推理能力

PaLM的另一个重大突破是其思维链推理(Chain-of-thought Reasoning)能力。通过思维链提示技术,PaLM能够生成自然语言的推理步骤,逐步解决复杂问题。

思维链推理示例:
问题:如果一个苹果的价格是2元,一个香蕉的价格是1.5元,小明买了3个苹果和4个香蕉,他需要付多少钱?

思维链:
1. 计算3个苹果的总价:3 × 2元 = 6元
2. 计算4个香蕉的总价:4 × 1.5元 = 6元
3. 计算总价格:6元 + 6元 = 12元
答案:小明需要付12元。

2.2.1 数学推理能力

在数学问题解决方面,PaLM通过思维链提示取得了显著进展:

  1. GSM8K基准测试:标准数学问题集,PaLM-540B的思维链表现达到了80.1%
  2. MATH基准测试:更复杂的数学问题,PaLM-540B的思维链表现达到了58.8%

这些结果表明,PaLM不仅能够执行简单的数学运算,还能够处理需要多步推理的复杂数学问题。

2.2.2 逻辑推理与常识理解

除了数学推理外,PaLM还在逻辑推理和常识理解方面表现出色:

  1. 逻辑三段论:能够正确理解和应用逻辑推理规则
  2. 因果关系推理:能够理解事件之间的因果关系
  3. 反事实推理:能够想象和推理未发生的情况
  4. 跨领域知识整合:能够将不同领域的知识结合起来解决问题

2.3 多语言与代码生成能力

2.3.1 多语言能力

PaLM在多语言任务上也表现出色,支持超过100种语言的理解和生成:

  1. 翻译质量:在WMT等翻译基准测试中达到了接近专业翻译的水平
  2. 跨语言理解:能够理解一种语言的问题并用另一种语言回答
  3. 低资源语言支持:对数据较少的语言也有较好的支持

2.3.2 代码生成能力

PaLM在代码生成任务上与专门的代码生成模型(如Codex)表现相当:

  1. HumanEval基准测试:代码生成能力测试,PaLM-540B达到了67.0%
  2. 多语言代码生成:支持Python、JavaScript、Java等多种编程语言
  3. 代码解释与修复:能够解释代码功能并修复bug

第三章:PaLM 2与技术迭代

3.1 PaLM 2的架构改进

2023年5月,谷歌发布了PaLM 2,这是PaLM的重大升级版本。PaLM 2在保持PaLM核心架构的同时,进行了多项关键技术改进:

  1. 更高效的模型结构:通过架构优化,在相同参数规模下提供更好的性能
  2. 增强的多语言能力:支持超过100种语言,且在低资源语言上表现更好
  3. 改进的推理能力:特别是在逻辑推理和数学问题解决方面
  4. 代码能力提升:专门针对代码理解和生成进行了优化

3.2 PaLM 2的模型变体

PaLM 2提供了多种规模的模型变体,以适应不同的应用场景和计算资源需求:

模型变体 应用场景 计算需求
Gecko 移动设备,边缘计算 极低,可在手机上运行
Otter 小型设备,实时应用 低,适合本地部署
Bison 一般应用,服务器部署 中,平衡性能和资源
Unicorn 复杂任务,高精度需求 高,需要强大计算资源

这种多样化的模型变体使PaLM 2能够覆盖从边缘设备到云端服务器的全场景应用需求。

3.3 PaLM 2在Bard中的应用

2023年5月10日,谷歌的AI助手Bard升级为PaLM 2大模型。这一升级带来了以下改进:

  1. 增强的逻辑推理能力:减少了对话中的错误和笑话
  2. 更好的多语言支持:能够更准确地处理多语言对话
  3. 代码生成能力提升:可以生成和解释代码
  4. 与谷歌产品的深度集成:为Gmail、Workspace等产品提供生成式AI功能

PaLM 2在Bard中的应用标志着谷歌开始将其最先进的语言模型技术应用于实际产品,为用户提供更智能、更自然的交互体验。

第四章:Gemma的开源战略与技术演进

4.1 Gemma的开源背景与战略意义

2024年初,谷歌宣布开源Gemma系列模型,这是谷歌在大语言模型领域的重要战略转变。在此之前,谷歌的先进模型如PaLM主要用于内部产品或通过API提供服务。Gemma的开源标志着谷歌开始将其核心AI技术普惠给更广泛的开发者社区。

Gemma的开源具有以下战略意义:

  1. 推动AI生态发展:通过开源促进AI技术的广泛应用和创新
  2. 建立技术标准:确立谷歌在开源大模型领域的领导地位
  3. 收集用户反馈:通过社区参与改进模型性能和安全性
  4. 促进负责任的AI开发:提供经过安全训练的基础模型

4.2 Gemma 1.x的技术特点

Gemma 1.x系列包括Gemma-2B和Gemma-7B两个版本,它们共享以下技术特点:

  1. 基于PaLM架构:继承了PaLM的核心架构设计
  2. 安全训练:经过专门的安全训练,减少有害输出
  3. 高效推理:优化的模型结构,适合在消费级硬件上运行
  4. 多任务能力:支持文本生成、问答、摘要等多种任务

虽然Gemma 1.x的参数规模较小,但通过精心的架构设计和训练优化,在多项基准测试中表现出色,甚至超过了一些更大规模的模型。

4.3 Gemma 2.0的技术突破

2024年底,谷歌发布了Gemma 2.0,这是Gemma系列的重大升级版本。Gemma 2.0在以下方面取得了突破:

  1. 性能提升:在保持模型规模的同时,性能显著提升
  2. 上下文窗口扩展:支持更长的输入序列处理
  3. 多模态能力初步整合:开始支持图像理解等多模态功能
  4. 更好的指令跟随能力:能够更准确地理解和执行复杂指令

第五章:Gemma 3的多模态革命

5.1 Gemma 3的发布与定位

2025年3月12日,谷歌以一场"小体积、大能量"的技术革新震撼AI界——开源多模态大模型Gemma 3正式发布。这款仅需单块H100 GPU即可运行的27B参数模型,不仅性能对标闭源的Gemini 1.5 Pro,更以"低成本、高性能"的标签重新定义了行业标准。

Gemma 3的发布标志着谷歌在开源多模态大模型领域的重大突破,为开发者提供了一个强大而高效的AI工具。

5.2 Gemma 3的技术架构

Gemma 3基于Gemini 2.0技术构建,融合了谷歌最新的AI研究成果:

5.2.1 多模态架构设计

Gemma 3支持文本、图像及短视频的联合分析,其架构包括:

  1. 文本编码器:基于优化的Transformer架构
  2. 视觉编码器:定制版SigLIP视觉编码器,可将图像转化为256个软标记
  3. 跨模态融合模块:实现文本和视觉信息的深度融合
  4. 生成解码器:基于优化的Transformer解码器

这种架构设计使得Gemma 3能够实现跨模态语义理解,如识别医疗影像中的异常结构、描述图片内容等。

5.2.2 关键技术创新

Gemma 3采用了多项前沿技术:

  1. 滑动窗口注意力:提高长文本处理效率
  2. 分组查询注意力:平衡性能和效率
  3. 优化的激活函数:采用更高效的激活函数变体
  4. 量化友好设计:支持高效的模型量化

5.3 Gemma 3的性能与应用场景

5.3.1 性能表现

Gemma 3在多项基准测试中表现出色:

  1. 文本生成:在MMLU、GSM8K等基准测试中接近闭源模型水平
  2. 图像理解:在VQA(视觉问答)等任务上达到了先进水平
  3. 代码生成:支持多种编程语言的代码生成和理解
  4. 多语言支持:原生支持35种语言交互(预训练覆盖140+语言)

5.3.2 应用场景拓展

Gemma 3的应用场景非常广泛:

  1. 智能客服:结合文本和图像理解,提供更全面的客户服务
  2. 内容创作:辅助生成图文结合的内容
  3. 教育领域:提供个性化的学习辅助和解释
  4. 医疗健康:辅助医疗影像分析和医学文本理解
  5. 工业质检:结合视觉和文本理解进行质量检测

第六章:Gemma 3n与移动端AI革命

6.1 Gemma 3n的发布背景

在2025年I/O开发者大会上,谷歌发布了Gemma 3n,这款产品旨在在手机、笔记本电脑和平板电脑上"流畅"运行。Gemma 3n的发布标志着大型AI模型向移动设备的进一步普及。

近年来,高效到可以离线运行且无需云端计算的模型在人工智能领域日益受到青睐。它们不仅比大型模型更便宜,而且无需将数据传输到远程数据中心,从而保护了隐私。

6.2 Gemma 3n的技术特点

Gemma 3n具有以下技术特点:

  1. 极致轻量化:针对移动设备优化的模型结构
  2. 多模态支持:可以处理音频、文本、图像和视频
  3. 离线运行能力:支持在设备本地运行,保护用户隐私
  4. 低延迟响应:针对实时交互进行了优化
  5. 能耗优化:降低了模型运行的能耗需求

这些特点使得Gemma 3n能够在资源受限的移动设备上提供接近云端模型的性能。

6.3 移动端AI的未来展望

Gemma 3n的发布开启了移动端AI的新时代。未来,我们可以期待:

  1. 更强大的本地AI应用:无需联网即可提供智能服务
  2. 隐私保护增强:敏感数据在设备本地处理,不传输到云端
  3. 实时交互体验:低延迟响应,提供更自然的用户体验
  4. 设备协作AI:多设备协同提供更强大的AI能力

第七章:专业领域模型的拓展

7.1 MedGemma:医疗领域的专业模型

在2025年I/O开发者大会上,谷歌针对多模态医疗文本和图像理解,推出了MedGemma开源模型。MedGemma基于Gemma 3架构,提供两种配置:

  1. MedGemma 4B:40亿参数的多模态模型,擅长分类和解读医疗图像

    • 采用SigLIP图像编码器
    • 预训练数据涵盖胸部X光、皮肤病学、眼科及组织病理学图像
    • 可生成诊断报告或解答图像相关问题
  2. MedGemma 27B:270亿参数的纯文本模型,专注于医疗文本理解

    • 擅长临床文本理解与临床推理
    • 支持患者分诊和决策辅助
    • 适合需要深入文本分析的任务

MedGemma的推出为医疗AI应用提供了强大的开源基础,有助于推动医疗AI技术的发展和普及。

7.2 SignGemma:无障碍沟通的创新

谷歌还宣布推出SignGemma,这是一个将手语翻译成口语文本的开放模型。SignGemma的主要特点包括:

  1. 手语识别与翻译:能够识别手语并翻译成口语文本
  2. 多模态理解:结合视觉和动作识别技术
  3. 无障碍应用:为聋哑和听力障碍用户创建新的应用程序和集成

SignGemma的推出展示了AI技术在促进社会包容和无障碍沟通方面的潜力。

7.3 其他专业领域模型的展望

基于Gemma架构,谷歌还计划推出更多专业领域的模型变体:

  1. 教育领域:专为教学和学习设计的模型
  2. 法律领域:专注于法律文本理解和分析的模型
  3. 金融领域:针对金融数据和文本的专业模型
  4. 创意领域:辅助创意写作、设计和艺术创作的模型

这些专业领域模型将为各行各业提供定制化的AI解决方案,推动AI技术在特定领域的深入应用。

第八章:PaLM到Gemma的技术演进路径

8.1 架构设计的演进

从PaLM到Gemma,谷歌的大语言模型在架构设计上经历了以下演进:

  1. 规模与效率的平衡:从PaLM-540B的超大规模,到Gemma系列的高效设计
  2. 模态扩展:从纯文本模型,到支持多模态输入的综合模型
  3. 部署灵活性:从云端专属,到支持从移动设备到数据中心的全场景部署
  4. 开放程度提升:从闭源到开源,促进社区参与和创新
技术演进路径:
纯文本 → 多模态
大规模 → 高效轻量化
云端专属 → 全场景部署
闭源 → 开源

8.2 训练方法的创新

在训练方法上,谷歌也不断创新:

  1. Pathways系统的应用与改进:从PaLM的初始应用,到Gemma系列的优化使用
  2. 数据质量与多样性提升:更严格的数据筛选和更广泛的数据来源
  3. 安全训练的强化:从PaLM的基础安全措施,到Gemma的全面安全训练
  4. 多任务协同训练:更好地利用跨任务知识迁移

8.3 性能与能力的提升

模型能力的提升主要体现在以下方面:

  1. 少样本学习能力增强:从PaLM的基础少样本能力,到Gemma 3的高效少样本学习
  2. 推理能力深化:从简单推理,到复杂的多步推理和跨领域推理
  3. 多语言支持扩展:从基础的多语言支持,到覆盖140+语言的全面支持
  4. 多模态理解能力:从纯文本理解,到文本、图像、视频的综合理解

第九章:谷歌LLM技术演进的核心驱动力

9.1 技术创新与研究突破

谷歌LLM技术演进的核心驱动力之一是持续的技术创新和研究突破:

  1. Transformer架构的优化:不断改进和优化基础架构
  2. 注意力机制的创新:从标准注意力到分组查询注意力、滑动窗口注意力等
  3. 训练方法的革新:Pathways系统等创新训练框架
  4. 多模态融合技术:文本、图像、视频等多模态信息的有效融合

谷歌的研究团队在顶级AI会议(如NeurIPS、ICML、ACL等)上发表了大量关于LLM的研究论文,推动了整个领域的技术进步。

9.2 计算基础设施的支持

强大的计算基础设施是谷歌LLM技术演进的重要支撑:

  1. TPU芯片的迭代:从TPU v1到TPU v4、TPU v5的持续升级
  2. 大规模分布式系统:支持数千台设备协同训练的系统架构
  3. 高效的软件栈:TensorFlow、JAX等优化的深度学习框架
  4. 数据中心的优化:为AI工作负载优化的数据中心设计

2024年12月,谷歌的新一代大模型Gemini 2.0就是基于第六代TPU训练得来,展示了计算基础设施对AI模型发展的关键支持作用。

9.3 应用驱动的技术发展

实际应用需求也是推动谷歌LLM技术演进的重要因素:

  1. 产品集成需求:与Gmail、Workspace等产品的集成要求
  2. 用户体验优化:提供更自然、更智能的交互体验
  3. 性能与成本平衡:在性能和计算成本之间找到最佳平衡点
  4. 安全性与伦理要求:确保AI系统的安全、公平和负责任使用

这种应用驱动的技术发展模式确保了谷歌的LLM技术能够更好地满足实际需求,提供真正有价值的解决方案。

第十章:谷歌LLM战略的影响与启示

10.1 对AI行业的影响

谷歌的LLM技术演进对整个AI行业产生了深远影响:

  1. 推动技术标准建立:通过开源Gemma系列,确立了开源大模型的技术标准
  2. 促进生态系统发展:为开发者提供了强大的基础模型,促进了AI应用的普及
  3. 加速创新迭代:开源模式加速了模型改进和应用创新的步伐
  4. 推动负责任AI发展:通过安全训练和伦理指导,推动行业负责任地发展AI技术

10.2 对企业和开发者的启示

谷歌的LLM战略为企业和开发者提供了以下启示:

  1. 开源与开放合作的重要性:通过开源促进技术普及和生态繁荣
  2. 专业化与场景化的发展方向:针对特定领域和场景优化模型
  3. 全栈能力的构建:从基础研究到产品应用的全链条布局
  4. 用户体验与技术平衡的重要性:在技术创新和用户需求之间找到平衡

10.3 对未来AI发展的展望

基于谷歌LLM技术的演进,我们可以展望未来AI发展的几个重要趋势:

  1. 多模态AI的进一步发展:文本、图像、音频、视频等多种模态的深度融合
  2. 边缘AI的普及:更高效的模型在移动设备和边缘设备上的广泛应用
  3. 专业领域AI的深化:针对特定行业和场景的专业化AI解决方案
  4. AI与人类协作的新模式:AI作为协作工具,增强人类能力而非替代人类

结论:谷歌LLM演进的技术遗产与未来方向

从PaLM到Gemma,谷歌的大语言模型技术经历了从超大规模到高效轻量化、从闭源到开源、从纯文本到多模态的重要演进。这一演进历程不仅展示了谷歌在AI领域的技术实力和创新精神,也为整个行业的发展提供了重要的参考和启示。

PaLM的独特训练路径——基于Pathways系统的大规模分布式训练,为大型语言模型的训练方法开辟了新方向。而Gemma系列的开源,则标志着谷歌将先进AI技术普惠给更广泛的开发者社区,推动了AI技术的普及和应用创新。

展望未来,谷歌的LLM技术将继续向更高效、更智能、更普及的方向发展。我们可以期待看到更多创新的模型架构、更高效的训练方法、更丰富的应用场景,以及更负责任的AI技术应用。谷歌的技术演进之路,不仅是其自身AI战略的体现,也将继续引领整个AI行业的发展方向。

在这个快速发展的AI时代,理解和把握谷歌LLM技术的演进路径,对于企业、开发者和研究人员都具有重要的价值。通过学习谷歌的技术创新和战略思考,我们可以更好地应对AI时代的挑战和机遇,共同推动AI技术的健康发展和广泛应用。

未来发展趋势:
更高效的模型架构
更智能的多模态理解
更广泛的边缘部署
更专业的领域应用
更负责任的AI发展

参考文献

  1. Google AI. (2022). "PaLM: Scaling Language Modeling with Pathways". arXiv preprint.
  2. Google Research. (2023). "PaLM 2 Technical Report". Google AI Blog.
  3. Google DeepMind. (2024). "Gemma: Google's Open Language Models". Google AI Blog.
  4. Google I/O. (2025). "Introducing Gemma 3 and Gemma 3n". Google Developer Conference.
  5. Google Health AI. (2025). "MedGemma: Open Models for Healthcare AI". Google Health Blog.
  6. Chen, T., et al. (2022). "PaLM: Scaling Language Modeling with Pathways". arXiv:2204.02311.
  7. Chowdhery, A., et al. (2022). "PaLM: Scaling Language Modeling with Pathways". JMLR.
  8. Google AI. (2025). "SignGemma: Making AI Accessible for Deaf and Hard-of-Hearing Communities". Google AI Blog.
  9. Dupont, E., et al. (2023). "Training language models to follow instructions with human feedback". arXiv:2203.02155.
  10. OpenAI. (2022). "Chain-of-thought prompting elicits reasoning in large language models". arXiv:2201.11903.
相关文章
|
人工智能 缓存 API
谷歌发布MediaPipe LLM Inference API,28亿参数模型本地跑
【2月更文挑战第24天】谷歌发布MediaPipe LLM Inference API,28亿参数模型本地跑
494 3
谷歌发布MediaPipe LLM Inference API,28亿参数模型本地跑
|
数据可视化 物联网 Swift
谷歌发布开源LLM Gemma,魔搭社区评测+最佳实践教程来啦!
Gemma是由Google推出的一系列轻量级、先进的开源模型,他们是基于 Google Gemini 模型的研究和技术而构建。
|
9月前
|
人工智能
谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密
谷歌和苹果的研究揭示了大型语言模型(LLM)的惊人秘密:尽管LLM能自主识别错误,却在生成答案时装作不知情。这一“幻觉”现象背后,模型内部已编码了关于输出真实性的信息,但其外部表现与内部判断常有矛盾,暴露出LLM在实际应用中的局限性。研究为未来开发更有效的错误检测和缓解策略提供了新思路。论文地址:https://arxiv.org/pdf/2410.02707
186 30
|
10月前
|
机器学习/深度学习 人工智能 算法
LLM超越人类时该如何对齐?谷歌用新RLHF框架解决了这个问题
谷歌提出了一种名为Evolving Alignment via Asymmetric Self-Play(eva)的新RLHF框架,通过创造者和解决者交替优化,生成具有挑战性的提示,提高模型泛化能力、样本效率和对齐鲁棒性。实验结果显示,eva在多个基准上显著提升性能,展示了其创新性和有效性。然而,eva的实现较为复杂,且实际应用中的长期效果仍待验证。
163 5
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第17天】近日,谷歌、DeepMind等四大机构联合发布论文,展示大型语言模型(LLMs)在数学问题解决上的显著进步。通过引入元认知知识,研究人员开发了提示引导的交互程序,使LLMs能为数学问题分配合理技能标签并进行语义聚类。实验结果显示,GPT-4在GSM8K和MATH数据集上的准确性分别提升了11.6%和7.52%,展现出巨大潜力。这一成果不仅为AI领域提供了新思路,也为数学教育带来了启示。
159 4
|
8月前
|
人工智能 机器人
D1net阅闻 | 谷歌DeepMind研究发现LLM新特性
D1net阅闻 | 谷歌DeepMind研究发现LLM新特性
|
11月前
|
人工智能 自然语言处理
大模型在装傻!谷歌苹果最新发现:LLM知道但不告诉你,掌握知识比表现出来的多
在AI领域,大模型(LLM)展现出了惊人的进步,但在谷歌和苹果的最新研究中,发现这些模型有时会故意“装傻”,即使已知正确答案也不告知用户。这种“隐藏智慧”现象揭示了大模型可能具备超出表面表现的深层能力,对AI评估与应用提出了新挑战,同时也带来了设计更高效模型的新机遇。论文链接:https://arxiv.org/pdf/2410.02707
193 11
|
12月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM群体智能崛起,数学性能暴增11.6%!谷歌DeepMind四大机构联手新作
【10月更文挑战第16天】最新研究显示,大型语言模型(LLMs)在数学问题解决上取得显著进展。谷歌、DeepMind等机构的研究人员通过引入元认知知识,使LLMs能更好地理解和解决数学问题,其在GSM8K和MATH数据集上的准确率分别提升了11.6%和7.52%。这一成果不仅为AI领域开辟了新路径,也为数学教育带来了新的可能性。
171 3
|
测试技术
谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力
【7月更文挑战第10天】DeepMind的ToT基准测试了大型语言模型的时间推理能力,分为ToT-Semantic(合成数据,评估时间逻辑理解)和ToT-Arithmetic(真实数据,检查时间计算)。研究使用Claude-3-Sonnet、GPT-4和Gemini 1.5 Pro进行评估,发现模型在时间逻辑理解上表现各异,而时间计算上均较强。 Gemini 1.5 Pro在复杂问题上表现出色,而GPT-4在数学相关问题上较弱。[[1](https://arxiv.org/pdf/2406.09170)]
253 1
开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了
【5月更文挑战第7天】谷歌推出Patchscopes框架,提升大型语言模型(LLM)的可解释性,通过分解LLM为可解释的Patch模型进行调试。本文提供实战教程,介绍如何安装Patchscopes库、加载预训练模型并查看模型解释性报告。虽然优势在于增强理解与问题定位,但Patchscopes适用模型有限,报告理解需专业知识,且计算成本高。[论文链接](https://arxiv.org/pdf/2401.06102.pdf)
249 1

热门文章

最新文章