接下来,再问问他对应的经济学理论是什么:
这波看起来,GPT-4的中文理解似乎也不输文心一言啊。
那么,再来看看二者写藏头诗的能力?
首先是文心一言的效果展示:
接下来,我们再看看GPT-4怎么说:
诶,看起来反而是GPT-4没有真正理解“藏头诗”的含义。
这波文化理解上,属实是文心一言“小胜一筹”了。
不过在英文上,李彦宏也承认,虽然文心一言也能处理,但能力是显著不如中文的。
这也和百度目前能用到的训练数据有关。
多模态生成
最后,李彦宏还简单展示了一下文心一言多模态生成的能力。
首先来看看,为即将到来的2023世界智能交通大会创作海报 ——
而除了前文展示过的文字转四川话能力,文心一言还能文字转视频 。
李彦宏一句指令“将以上内容生成视频”,很快啊,不到几秒钟,文心一言就把字幕和视频做好了:
有些遗憾的是,在ChatGPT被频频称赞的编程 方面,文心一言并没有现场展示相关能力。
但王海峰透露,文心一言的训练数据中同样包括代码。
基于 Spring Boot + MyBatis Plus + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能
文心一言如何“跑通”?
正如ChatGPT脱胎于OpenAI的GPT系列,百度这次推出的文心一言(ERNIE Bot),背后也正是基于文心大模型技术打造。
据王海峰介绍,文心一言主要脱胎于两大模型:
百度ERNIE系列知识增强千亿大模型,以及百度大规模开放域对话模型PLATO。
在此基础上,主要采用了六项核心技术 。
其中三个是广为人知的大模型技术,包括有监督精调、人类反馈强化学习(RLHF)和提示构建。
p.s. 人类反馈强化学习也是ChatGPT的关键技术。
另外三个,则是“百度比较有特色”的技术,包括知识增强、检索增强和对话增强技术。
首先来看与ChatGPT类似的技术:有监督精调、RLHF和提示构建。
有监督精调,尤其指中文方面的数据精调。百度基于对中国语言文化和中国应用场景的理解,筛选了特定的数据来训练模型。
至于人类反馈的强化学习(RLHF)和提示构建,操作上也与ChatGPT大差不差。
随后是百度提出的、用于进一步改善模型效果的技术。
知识增强,包括知识内化和知识外用两个部分。其中,知识内化即将知识“渗透”进模型参数中;知识外用指的是模型可以直接使用外部的知识。
检索增强,则与百度搜索引擎积累的检索技术有关。
百度将把检索技术和生成技术结合起来,先对内容进行检索后,将比较有用的部分用于生成,再整合输出结果:
最后是对话增强部分,包括之前百度积累的记忆机制、上下文理解和对话规划等技术:
概括来看,文心一言表现出的能力,被李彦宏称为“智能涌现”:
当参数达到千亿量级,训练语料达到足够多的情况下,这种现象就会发生。
目前,百度拥有的AI技术可以分为四个部分,芯片(昆仑芯)、框架(飞桨)、模型(文心)和应用。
之所以软硬件都要布局,百度称,是为了降低成本 :
生成式AI需求的算力非常高,费用相当昂贵。
因此,如果在四层架构之间相互进行协同优化,就能让它的效率比别人更高,从而显著降低成本。
李彦宏认为,这也正是百度的优势所在:
四层都有领先产品的公司,绝无仅有。
这次文心大模型背后的硬件算力,也是通过百度智能云 提供服务。
目前,文心一言已经接入百度搜索,目的在于提升搜索资源效率。
同时,包括小度和自动驾驶Apollo等产品,以及爱奇艺等公司也已经接入百度的文心一言模型。
基于 Spring Cloud Alibaba + Gateway + Nacos + RocketMQ + Vue & Element 实现的后台管理系统 + 用户小程序,支持 RBAC 动态权限、多租户、数据权限、工作流、三方登录、支付、短信、商城等功能
网友:看来还不用提前退休
截至发稿,百度港股股价在一波明显下跌之后,有所回弹。
发布会结束,网友反应最多的是“提前录制有点败好感”:
对于这一点,李彦宏的解释是,给出的问题都比较长,为了节约现场时间,所以才用了提前录制的形式。
还有不少网友对文心一言展示出的能力不太满意。有人调侃,看完之后感觉“提前退休的日子看起来还可以缓一缓”:
离GPT-4还差了20个老胡。
还有网友感觉,文心一言的发布会像极了毕业答辩的自己(doge):
不过也有网友表示,希望能给国产产品一点时间一点耐心。
发布会末尾,王海峰宣布,文心一言将从今天开始对外进行测试,包括个人用户和企业用户。
是骡子是马,相信接下来,会得到更多验证。