谷歌推出其最强大的AI模型Gemini

简介: 谷歌推出其最强大的AI模型Gemini

本文来源:企业网D1net


谷歌宣布推出其最新、最强大的AI模型Gemini,其有三种模式,谷歌的高管们表示,Gemini Pro的表现好于OpenAI的GPT-3.5,但回避了有关它如何与GPT-4抗衡的问题。


谷歌于当地时间周三发布了其认为最强大的AI模型,该公司面临着越来越大的压力,需要回答它将如何通过AI盈利。


大型语言模型Gemini将包括三种不同的套件:Gemini Ultra,其最大、功能最强大的类别,Gemini Pro,可扩展到各种任务,以及Gemini Nano,它将用于特定任务和移动设备。


目前,该公司计划通过谷歌云将Gemini授权给客户,让他们在自己的应用程序中使用。从12月13日开始,开发人员和企业客户可以通过Google AI Studio或Google Cloud Vertex AI中的Gemini API访问Gemini Pro。Android开发者也将能够使用Gemini Nano进行构建。Gemini还将被用来支持谷歌的产品,如Bard聊天机器人和搜索生成体验,它试图用对话风格的文本回答搜索查询(SGE还没有广泛使用)。


企业可以使用它通过聊天机器人和产品推荐来进行更高级的客户服务,并为希望为产品做广告的公司识别趋势。如果一家公司想要创建营销活动或博客内容,以及想要为开发人员总结会议或生成代码的生产力应用程序,Gemini也可以用于内容创建。


该公司提供了一些例子,包括展示Gemini能够截取图表的屏幕截图,并分析数百页研究报告,然后更新图表,另一个例子是分析一个人的数学作业的照片,找出正确的答案并指出错误的答案。


Gemini Ultra是第一个在大规模多任务语言理解(MMLU)上超越人类专家的模型,该公司周三在一篇博客文章中表示,MMLU使用数学、物理、历史、法律、医学和伦理学等57门学科的组合来测试世界知识和解决问题的能力。据推测,它可以理解复杂主题中的细微差别和推理。


周三,谷歌的首席执行官桑达尔·皮查伊在一篇博文中写道:“Gemini是整个谷歌团队大规模合作的结果,包括我们在谷歌研究院的同事。它从一开始就是多模式的,这意味着它可以概括并无缝地理解、操作和组合不同类型的信息,包括文本、代码、音频、图像和视频。”


从今天开始,谷歌的聊天机器人Bard将使用Gemini Pro帮助进行高级推理、规划、理解和其他功能。高管们周二在与记者的电话会议上表示,明年初,该公司将推出“Bard Advanced”,将使用Gemini Ultra。


此次更新是在搜索巨头谷歌首次推出Bard八个月后,以及OpenAI在GPT-3.5上推出ChatGPT一年后发布的。今年3月,这家由奥特曼领导的初创公司推出了GPT-4。高管们周二表示,Gemini Pro的表现好于GPT-3.5,但回避了有关它如何与GPT-4抗衡的问题。


然而,根据谷歌周三发布的一份白皮书,Gemini的Ultra模型在几个基准测试中的表现优于GPT-4。


当被问及谷歌是否有计划对访问Bard Advanced收费时,谷歌Bard总经理Sissie Hsiao表示,谷歌专注于创造良好的体验,目前还没有任何盈利细节。


在新闻发布会上,当被问及与当前一代的LLM相比,Gemini是否具有任何新的能力时,谷歌DeepMind产品副总裁伊莱·柯林斯回答说:“我认为是这样的”,但该公司仍在努力了解Gemini Ultraa的新能力。


据报道,谷歌推迟了Gemini的发布,因为它还没有准备好,这让人想起了该公司在今年年初艰难推出其AI工具的记忆。


多名记者询问了延迟的原因,柯林斯回答说,测试更先进的型号需要更长的时间。柯林斯说,Gemini是该公司构建的经过最严格测试的AI模型,并且它拥有谷歌所有模型中“最全面的安全评估”。


柯林斯表示,尽管是最大的模型,但Gemini Ultra的服务成本要低得多。“它不仅更有能力,而且更有效率,”他说,“我们仍然需要大量的计算机来训练Gemini,但我们训练这些模型的能力正在变得更加高效。”


柯林斯表示,该公司将于周三发布一份技术白皮书,其中包含该型号的更多细节,但表示不会公布周长计数。今年早些时候,记者发现,谷歌当时最新的AI模型——Palm 2大型语言模型,用于训练的文本数据量是其前身LLM的近五倍。


同样在周三,谷歌推出了用于训练AI模型的下一代张量处理单元。谷歌表示,Salesforce和初创公司Lightricks已经开始使用TPU v5p芯片,其性价比高于2021年宣布的TPU v4,但该公司没有提供与市场领头羊英伟达相比的业绩信息。


在谷歌10月份的第三季度收益

电话会议上,投资者向高管们询问了更多关于它将如何将AI转化为实际利润的问题。


今年8月,谷歌推出了一项名为搜索生成性体验(SGE)的早期实验,让用户看到使用搜索引擎时GenAI体验是什么样子 - 搜索仍然是该公司的一个主要利润中心,其结果是更具对话性,反映了聊天机器人的时代,然而,它仍被认为是一项实验,尚未向公众推出。


今年5月,Gemini首次在其年度开发者大会Google I/O上宣布了这项实验,自那以来,投资者一直在要求SGE的时间表,Gemini周三的声明几乎没有提到SGE,高管们对其向公众推出的计划含糊其辞,称Gemini将“在明年”并入SGE。


皮查伊在周三的博客文章中说:“这个模型的新时代代表着我们作为一家公司所做的最大的科学和工程努力之一。我真的为未来感到兴奋,也为Gemini将为世界各地的人们带来的机遇感到兴奋。”


版权声明:本文为企业网D1Net编译,转载需在文章开头注明出处为:企业网D1Net,如果不注明出处,企业网D1Net将保留追究其法律责任的权利。



相关文章
|
3天前
|
机器学习/深度学习 人工智能 并行计算
"震撼!CLIP模型:OpenAI的跨模态奇迹,让图像与文字共舞,解锁AI理解新纪元!"
【10月更文挑战第14天】CLIP是由OpenAI在2021年推出的一种图像和文本联合表示学习模型,通过对比学习方法预训练,能有效理解图像与文本的关系。该模型由图像编码器和文本编码器组成,分别处理图像和文本数据,通过共享向量空间实现信息融合。CLIP利用大规模图像-文本对数据集进行训练,能够实现zero-shot图像分类、文本-图像检索等多种任务,展现出强大的跨模态理解能力。
15 2
|
11天前
|
机器学习/深度学习 人工智能 自然语言处理
当语言遇见智慧火花:GPT家族历代模型大起底,带你见证从平凡到卓越的AI进化奇迹!
【10月更文挑战第6天】随着自然语言处理技术的进步,GPT系列模型(Generative Pre-trained Transformers)成为该领域的明星。从GPT-1的开创性工作,到GPT-2在规模与性能上的突破,再到拥有1750亿参数的GPT-3及其无需微调即可执行多种NLP任务的能力,以及社区驱动的GPT-NeoX,这些模型不断进化。虽然它们展现出强大的语言理解和生成能力,但也存在如生成错误信息或偏见等问题。本文将对比分析各代GPT模型的特点,并通过示例代码展示其部分功能。
48 2
|
1月前
|
机器学习/深度学习 人工智能 UED
OpenAI o1模型:AI通用复杂推理的新篇章
OpenAI发布了其最新的AI模型——o1,这款模型以其独特的复杂推理能力和全新的训练方式,引起了业界的广泛关注。今天,我们就来深入剖析o1模型的特点、背后的原理,以及一些有趣的八卦信息。
293 73
|
4天前
|
人工智能 自然语言处理
从迷茫到精通:揭秘模型微调如何助你轻松驾驭AI新热点,解锁预训练模型的无限潜能!
【10月更文挑战第13天】本文通过简单的问题解答形式,结合示例代码,详细介绍了模型微调的全流程。从选择预训练模型、准备新任务数据集、设置微调参数,到进行微调训练和评估调优,帮助读者全面理解模型微调的技术细节和应用场景。
22 6
|
2天前
|
人工智能 安全 芯片
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
本文由【通义】自动生成,涵盖黄仁勋宣布台积电协助修复Blackwell AI芯片设计缺陷、苹果分阶段推出Apple Intelligence、OpenAI保守派老将辞职、英伟达深化与印度合作推出印地语AI模型,以及谷歌Tensor G5芯片支持光线追踪等最新科技资讯。点击链接或扫描二维码,获取更多精彩内容。
|
12天前
|
人工智能 自然语言处理 安全
【通义】AI视界|Adobe推出文生视频AI模型,迎战OpenAI和Meta
本文精选了过去24小时内的重要科技新闻,包括微软人工智能副总裁跳槽至OpenAI、Adobe推出文本生成视频的AI模型、Meta取消高端头显转而开发超轻量设备、谷歌与核能公司合作为数据中心供电,以及英伟达股价创下新高,市值接近3.4万亿美元。这些动态展示了科技行业的快速发展和激烈竞争。点击链接或扫描二维码获取更多资讯。
|
9天前
|
机器学习/深度学习 人工智能 TensorFlow
解锁AI潜力:让开源模型在私有环境绽放——手把手教你搭建专属智能服务,保障数据安全与性能优化的秘密攻略
【10月更文挑战第8天】本文介绍了如何将开源的机器学习模型(如TensorFlow下的MobileNet)进行私有化部署,包括环境准备、模型获取与转换、启动TensorFlow Serving服务及验证部署效果等步骤,适用于希望保护用户数据并优化服务性能的企业。
24 4
|
9天前
|
机器学习/深度学习 人工智能 自然语言处理
揭开模型微调Fine-Tuning的神秘面纱:如何在预训练基础上巧妙调整,解锁定制AI解决方案的秘密武器
【10月更文挑战第8天】模型微调是在预训练模型基础上,利用特定领域数据进一步训练,以优化模型在特定任务上的表现。此方法广泛应用于自然语言处理和计算机视觉等领域,通过调整预训练模型的部分或全部参数,结合适当的正则化手段,有效提升模型性能。例如,使用Hugging Face的Transformers库对BERT模型进行微调,以改善文本匹配任务的准确率。
21 1
|
15天前
|
人工智能 自然语言处理 安全
Gemini 人工智能:谷歌AI重磅来袭!好消息,国内可用
Gemini 是 Google 🧠 开发的革命性人工智能模型,旨在打造一个功能强大的多模态 AI 系统。
|
16天前
|
人工智能 搜索推荐 算法
【通义】AI视界|强制谷歌交出私有AI模型数据?美政府要对谷歌进行重大拆分
本文精选了24小时内的重要科技新闻,包括OpenAI董事会考虑采用PBC公司模式、o1推理模型贡献者Luke Metz离职、美国政府计划拆分谷歌、苹果AI功能遭质疑及股票评级下调、AI教父杰弗里·辛顿对其学生解雇OpenAI CEO感到自豪等内容。此外,文章还探讨了PBC模式对OpenAI的影响及其在法律和商业实践中的潜在挑战。点击[通义官网](https://tongyi.aliyun.com/qianwen?spm=a2c6h.13046898.publish-article.10.5ff66ffaj8oqp3&code=cykjlxy964)体验更多功能。