新智元报道
编辑:好困 Aeneas
【新智元导读】复旦NLP团队首次上线MOSS两个月后,他们遵照承诺,真的把MOSS开源了。同时,MOSS也成为了国内首个搭载插件系统的开源对话语言模型。
国内首个类ChatGPT模型MOSS,开源了!这次,复旦团队的模型不仅更加成熟,而且还增加了「搜索引擎、计算器、解方程、文生图」等插件功能,既可在线体验,也支持本地部署——在FP16精度下单张A100/A800或两张3090显卡就能运行,而在INT4/8精度下只需一张3090即可。(但还没放出)目前,项目已在Github上收获了2.2k星。
MOSS升级版正式开源,搭载全新插件系统
当然,这次除了模型正式开源外,还有一个新的升级——「插件系统」。还有一个比较有意思的功能就是,我们可以通过点击MOSS回复消息框右下角的小灯泡,来查看MOSS的「内心想法」。根据介绍,moss-moon系列模型具有160亿参数,并且已经在1000亿中文token上进行了训练,总训练token数量达到7000亿,其中还包含约3000亿代码。同时,在经过对话指令微调、插件增强学习和人类偏好训练之后,MOSS目前已经具备了多轮对话能力及使用多种插件的能力。此外,团队还给MOSS增加了Inner Thoughts作为输出,帮助模型决定调用什么API、传入什么参数,以及帮助MOSS通过类似思维链的方式提升推理能力。
官方演示
调用搜索引擎
解方程
生成图片
无害性
网友实测
除了这些官方演示外,知名答主「段小草」也在第一时间进行了评测。「段小草」表示,插件能力的激发需要分成两个步骤:
- 触发正确的插件
- 通过调用给出更准确的回答
然而,在实际的测试中,有时会出现插件不能触发,或者调用之后依然出错的情况,比较玄学。目前可选的插件有下面这些。
Calculator:计算功能
如果MOSS显示了插件图表和计算公式,就说明它调用了响应插件。
Equation solver:求解方程
以经典的鸡兔同笼问题为例。开启「方程」插件时,有时成功有时失败。在触发插件时,MOSS可以作答正确,表现还是很优异的。但有时也会回答错误,比如下面这个例子,MOSS就把列方程和求解都做错了。在未能触发插件时,MOSS也把题算错了。
Text-to-image:文生图
到了文生图部分,还是那道经典的考题:画个「车水马龙」。
MOSS画得很漂亮,但好像不太对的样子。
再来个「胸有成竹的男人」?
感觉MOSS有自己的想法,还不算错。
Web search:联网搜索
使用联网插件时,第一次虽然不成功,但在重新尝试之后, MOSS给出了正确的答案。
MOSS的迭代过程
根据团队成员孙天详的介绍,目前开源的版本称为MOSS 003,而二月份公开邀测的版本为MOSS 002,一月份的内测版为OpenChat 001。
OpenChat 001
ChatGPT初问世时,大大冲击了国内NLP从业者。当时还没有开源平替LLaMA、Alpaca,而国内和ChatGPT显然有一到两年的差距。复旦团队的想法是,虽然没有算力,但可以试着构造数据。于是他们从OpenAI的论文附录里,扒了一些API收集到的user prompt,然后用类似Self-Instruct的思路,用text-davinci-003扩展出大约40万对话数据。然后在16B基座(CodeGen)上做了微调。微调后的OpenChat 001,已经具备了指令遵循能力和多轮能力,训练语料中虽然没有中文,却可以理解中文。
OpenChat 001的指令遵循能力
MOSS 002
在001的基础上,团队加入了约300亿中文token,同时加入大量中英文helpfulness, honesty, harmlessness对话数据。完成一些推理加速、模型部署、前后端工作后,MOSS 002在2月21日开放内测。此处,孙天胜特意针对「MOSS是蒸馏ChatGPT」、「基于LLaMA微调」等说法辟谣:截至MOSS 002训练完成时,gpt-3.5-turbo、LLaMA、Alpaca均未出现。
MOSS 003
在开放内测后,复旦团队发现,真实中文世界的用户意图和OpenAI InstructGPT论文中给出的user prompt分布有较大差异。于是,便以这部分真实数据作为seed,重新生成了约110万常规对话数据,涵盖更细粒度的helpfulness数据和更广泛的harmlessness数据。此外,团队还构造了约30万插件增强的对话数据,包含搜索引擎、文生图、计算器、方程求解等。以上数据将陆续完整开源。值得注意的是,由于模型参数量较小和自回归生成范式,MOSS仍然可能生成包含事实性错误的误导性回复,或包含偏见/歧视的有害内容。为此,团队特地提醒到:「请谨慎鉴别和使用MOSS生成的内容,并且不要将MOSS生成的有害内容传播至互联网。」
刚发布,就火了
「MOSS」当初掀起何等惊涛骇浪,大家都还记忆犹新。2月份伊始,国内各大厂纷纷开始拼大模型,谁都没想到,ChatGPT国内赛中首个拿出大模型的,竟然不是大厂,而是学界。2月20日晚,复旦大学自然语言处理实验室发布类ChatGPT模型MOSS的消息一竟公开,服务器立马被挤爆。并且很快就登顶了知乎热榜。作为一个「类ChatGPT模型」,MOSS在开发上确实采用了和ChatGPT类似的步骤。其中包括两个阶段:自然语言模型的基座训练和理解人类意图的对话能力训练。不过,具体的区别还是很明显的。首先,MOSS的参数数量比ChatGPT少很多。ChatGPT的参数有1750亿,而moss-moon系列模型的参数量是160亿。其次,ChatGPT训练时,用的人类反馈强化学习(RLHF),而MOSS的训练,靠的是与人类和其他AI模型交谈。还有一点,MOSS的开源会给开发者社区的研究做出贡献,而对于OpenAI不open,咱们是耳熟能详了。
开源清单