实测:文心一言 vs GPT-4 下

简介: 实测:文心一言 vs GPT-4 下

接下来,再问问他对应的经济学理论是什么:

这波看起来,GPT-4的中文理解似乎也不输文心一言啊。

那么,再来看看二者写藏头诗的能力?

首先是文心一言的效果展示:

接下来,我们再看看GPT-4怎么说:

诶,看起来反而是GPT-4没有真正理解“藏头诗”的含义。

这波文化理解上,属实是文心一言“小胜一筹”了。

不过在英文上,李彦宏也承认,虽然文心一言也能处理,但能力是显著不如中文的。

这也和百度目前能用到的训练数据有关。

多模态生成

最后,李彦宏还简单展示了一下文心一言多模态生成的能力。

首先来看看,为即将到来的2023世界智能交通大会创作海报 ——

而除了前文展示过的文字转四川话能力,文心一言还能文字转视频

李彦宏一句指令“将以上内容生成视频”,很快啊,不到几秒钟,文心一言就把字幕和视频做好了:

有些遗憾的是,在ChatGPT被频频称赞的编程 方面,文心一言并没有现场展示相关能力。

但王海峰透露,文心一言的训练数据中同样包括代码。

基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

文心一言如何“跑通”?

正如ChatGPT脱胎于OpenAI的GPT系列,百度这次推出的文心一言(ERNIE Bot),背后也正是基于文心大模型技术打造。

据王海峰介绍,文心一言主要脱胎于两大模型:

百度ERNIE系列知识增强千亿大模型,以及百度大规模开放域对话模型PLATO。

在此基础上,主要采用了六项核心技术

其中三个是广为人知的大模型技术,包括有监督精调、人类反馈强化学习(RLHF)和提示构建。

p.s. 人类反馈强化学习也是ChatGPT的关键技术。

另外三个,则是“百度比较有特色”的技术,包括知识增强、检索增强和对话增强技术。

首先来看与ChatGPT类似的技术:有监督精调、RLHF和提示构建。

有监督精调,尤其指中文方面的数据精调。百度基于对中国语言文化和中国应用场景的理解,筛选了特定的数据来训练模型。

至于人类反馈的强化学习(RLHF)和提示构建,操作上也与ChatGPT大差不差。

随后是百度提出的、用于进一步改善模型效果的技术。

知识增强,包括知识内化和知识外用两个部分。其中,知识内化即将知识“渗透”进模型参数中;知识外用指的是模型可以直接使用外部的知识。

检索增强,则与百度搜索引擎积累的检索技术有关。

百度将把检索技术和生成技术结合起来,先对内容进行检索后,将比较有用的部分用于生成,再整合输出结果:

最后是对话增强部分,包括之前百度积累的记忆机制、上下文理解和对话规划等技术:

概括来看,文心一言表现出的能力,被李彦宏称为“智能涌现”:

当参数达到千亿量级,训练语料达到足够多的情况下,这种现象就会发生。

目前,百度拥有的AI技术可以分为四个部分,芯片(昆仑芯)、框架(飞桨)、模型(文心)和应用。

之所以软硬件都要布局,百度称,是为了降低成本

生成式AI需求的算力非常高,费用相当昂贵。

因此,如果在四层架构之间相互进行协同优化,就能让它的效率比别人更高,从而显著降低成本。

李彦宏认为,这也正是百度的优势所在:

四层都有领先产品的公司,绝无仅有。

这次文心大模型背后的硬件算力,也是通过百度智能云 提供服务。

目前,文心一言已经接入百度搜索,目的在于提升搜索资源效率。

同时,包括小度和自动驾驶Apollo等产品,以及爱奇艺等公司也已经接入百度的文心一言模型。

基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能

网友:看来还不用提前退休

截至发稿,百度港股股价在一波明显下跌之后,有所回弹。

发布会结束,网友反应最多的是“提前录制有点败好感”:

对于这一点,李彦宏的解释是,给出的问题都比较长,为了节约现场时间,所以才用了提前录制的形式。

还有不少网友对文心一言展示出的能力不太满意。有人调侃,看完之后感觉“提前退休的日子看起来还可以缓一缓”:

离GPT-4还差了20个老胡。

还有网友感觉,文心一言的发布会像极了毕业答辩的自己(doge):

不过也有网友表示,希望能给国产产品一点时间一点耐心。

发布会末尾,王海峰宣布,文心一言将从今天开始对外进行测试,包括个人用户和企业用户。

是骡子是马,相信接下来,会得到更多验证。



相关文章
|
4天前
GPT-4 vs. ChatGPT:19个弱项问题(多步逻辑推理、概念间接关联)的横向对比
GPT-4在逻辑推理和概念关联上的准确率提升至100%,超越ChatGPT,其智力可能超过95%的人。在逻辑和多模态理解上有显著进步,但数数和某些逻辑推理仍是挑战。擅长处理成本计算和复杂情境,能建立概念间的间接关联,如遗忘与老龄化的联系。在数学和物理领域表现出色,但处理复杂间接关系和抽象概念时仍有局限。总体而言,GPT-4展现出超越人类智能的潜力,但仍需面对认知任务的挑战。![GPT-4进步示意](https://developer.aliyun.com/profile/oesouji3mdrog/highScore_1?spm=a2c6h.132)查看GPT-5教程,可访问我的个人主页介绍。
46 0
GPT-4 vs. ChatGPT:19个弱项问题(多步逻辑推理、概念间接关联)的横向对比
|
4天前
|
自然语言处理 C++
GPT4 vs Llama,大模型训练的坑
训练大模型,总觉得效果哪里不对,查了三天,终于发现了原因
94 0
|
6月前
|
人工智能 算法 定位技术
百度文心一言 VS GPT
百度文心一言 VS GPT
125 0
|
机器学习/深度学习 人工智能 搜索推荐
【个人首测】百度文心一言 VS GPT-4
【个人首测】百度文心一言 VS GPT-4
|
机器学习/深度学习 自然语言处理 算法
GPT-3 vs Bert vs GloVe vs Word2vec 文本嵌入技术的性能对比测试
本文将GPT3与三种传统文本嵌入技术GloVe、Word2vec(Mikolov ,2013 年)和 BERT生成的嵌入进行性能的简单对比。
510 0
GPT-3 vs Bert vs GloVe vs Word2vec 文本嵌入技术的性能对比测试
|
4天前
|
前端开发 JavaScript 安全
JavaScript 权威指南第七版(GPT 重译)(七)(4)
JavaScript 权威指南第七版(GPT 重译)(七)
29 0
|
4天前
|
前端开发 JavaScript 算法
JavaScript 权威指南第七版(GPT 重译)(七)(3)
JavaScript 权威指南第七版(GPT 重译)(七)
38 0
|
4天前
|
前端开发 JavaScript Unix
JavaScript 权威指南第七版(GPT 重译)(七)(2)
JavaScript 权威指南第七版(GPT 重译)(七)
43 0
|
4天前
|
前端开发 JavaScript 算法
JavaScript 权威指南第七版(GPT 重译)(七)(1)
JavaScript 权威指南第七版(GPT 重译)(七)
69 0
|
4天前
|
存储 前端开发 JavaScript
JavaScript 权威指南第七版(GPT 重译)(六)(4)
JavaScript 权威指南第七版(GPT 重译)(六)
126 3
JavaScript 权威指南第七版(GPT 重译)(六)(4)