谷歌微型AI模型“Gemma 2 2B”正出人意料地挑战科技巨头

简介: 谷歌微型AI模型“Gemma 2 2B”正出人意料地挑战科技巨头

本文来源:企业网D1net


谷歌最新发布的Gemma 2 2B是一款紧凑但功能强大的AI模型,尽管仅有26亿参数,但其性能却可与OpenAI的GPT-3.5和Mistral AI的Mixtral 8x7B等大型模型媲美甚至超越。Gemma 2 2B在大规模多任务语言理解(MMLU)和Python编程(MBPP)基准测试中表现优异,显示出在创建更高效、更易于部署的AI系统方面的重大进步,这款多语言模型经过先进TPU硬件的训练,适用于设备端和边缘计算。谷歌通过开源Gemma 2 2B,推动了AI技术的普及,强调模型压缩和蒸馏技术的重要性,展示了未来AI开发的新方向。


谷歌刚刚发布了Gemma 2 2B,这是一款紧凑但功能强大的AI模型,尽管其规模显著较小,但在性能上却可与行业领先者媲美甚至超越,这个新语言模型仅包含26亿参数,但其表现与规模更大的对手(包括OpenAI的GPT-3.5和Mistral AI的Mixtral 8x7B)相当或更优。


在谷歌开发者博客上宣布的Gemma 2 2B代表了在创建更易于访问和部署的AI系统方面的重大进步,其小巧的体积使其特别适合于设备上的应用,可能对移动AI和边缘计算产生重大影响。


小而强大的AI:超越其重量级别



AI研究组织LMSYS的独立测试显示,Gemma 2 2B在他们的评估中获得了1130分,这一结果略高于GPT-3.5-Turbo-0613(1117分)和Mixtral-8x7B(1114分),这两个模型的参数数量是Gemma 2 2B的十倍。


该模型的能力不仅仅在于其效率。谷歌报告称,Gemma 2 2B在MMLU(大规模多任务语言理解)基准测试中得分为56.1,在MBPP(主要是基础Python编程)中得分为36.6,比其前代产品有显著提升。


这一成就挑战了AI开发中更大模型固有表现更好的传统智慧。Gemma 2 2B的成功表明,复杂的训练技术、高效的架构和高质量的数据集可以弥补参数数量的不足,这一突破可能对该领域产生深远影响,可能会将焦点从追求越来越大的模型转向精炼更小、更高效的模型。


压缩巨人:AI压缩的艺术



Gemma 2 2B的开发还强调了模型压缩和蒸馏技术的重要性。通过有效地将大模型中的知识蒸馏到小模型中,研究人员可以创建更易于访问的AI工具,而不牺牲性能,这种方法不仅减少了计算需求,还解决了训练和运行大型AI模型对环境的影响。


谷歌使用其先进的TPU v5e硬件在一个包含2万亿标记的大规模数据集上训练了Gemma 2 2B,这个多语言模型增强了其在全球应用中的潜力。


这一发布符合行业对更高效AI模型的日益关注。随着对大语言模型环境影响和可访问性的关注增加,科技公司正专注于创建可以在消费级硬件上运行的更小、更高效的系统。


开源革命:让AI普及大众



通过将Gemma 2 2B开源,谷歌重申了其在AI领域透明和协作开发的承诺。研究人员和开发人员可以通过Gradio在Hugging Face上访问该模型,并且可以在包括PyTorch和TensorFlow在内的各种框架中实现。



版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。封面图片来源于摄图网


(来源:企业网D1Net)


image.png

如果您在企业IT、网络、通信行业的某一领域工作,并希望分享观点,欢迎给企业网D1Net投稿。

投稿邮箱:

editor@d1net.com

合作电话:

010-58221588(北京公司)

021-51701588(上海公司)

合作邮箱:

Sales@d1net.com


企业网D1net旗下信众智是CIO(首席信息官)的专家库和智力输出及资源分享平台,有五万多CIO专家,也是目前最大的CIO社交平台。


信众智对接CIO为CIO服务,提供数字化升级转型方面的咨询、培训、需求对接等落地实战的服务。也是国内最早的toB共享经济平台。同时提供猎头,选型点评,IT部门业绩宣传等服务。

相关文章
|
3天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
15 2
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
48 2
|
1月前
|
人工智能 测试技术 API
AI计算机视觉笔记二十 九:yolov10竹签模型,自动数竹签
本文介绍了如何在AutoDL平台上搭建YOLOv10环境并进行竹签检测与计数。首先从官网下载YOLOv10源码并创建虚拟环境,安装依赖库。接着通过官方模型测试环境是否正常工作。然后下载自定义数据集并配置`mycoco128.yaml`文件,使用`yolo detect train`命令或Python代码进行训练。最后,通过命令行或API调用测试训练结果,并展示竹签计数功能。如需转载,请注明原文出处。
|
1月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
293 73
|
4天前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
22 6
|
2天前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
12天前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
9天前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
24 4
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
21 1
|
15天前
|
人工智能 自然语言处理 安全
Gemini 人工智能:谷歌AI重磅来袭!好消息,国内可用
Gemini 是 Google 🧠 开发的革命性人工智能模型,旨在打造一个功能强大的多模态 AI 系统。