5个值得一试的开源大语言模型

本文涉及的产品
交互式建模 PAI-DSW,5000CU*H 3个月
简介: 本文为大家整理了5个效果优秀和开源大语言模型,供大家学习研究。

5个值得一试的开源大语言模型

人工智能已经成为我们生活中不可或缺的一部分,而LLM(大型语言模型)处于这一变化的最前沿。 在对话式人工智能方面,大语言模型的性能最为关键。 虽然像 OpenAI 的 GPT-4 这样的商业大语言模型已经引起了所有人的关注,但开源模型在性能和流行度方面正在迅速赶上。 在社区和机构的不断贡献下,开发人员现在有机会访问更强大的开源对话式 AI 模型。这些开源模型得益于源代码开放的天然优势,可以提供更好的灵活性、更广泛的社区支持、更透明的技术细节,关键是可以极大节约时间和降低成本。

1_DKfl146dy7bNgIoaGmZmeQ.png

“模型开源”与“代码开源”不完全相同。虽然“开源”一词通常意味着源代码可供任何人使用、修改和分发,但人工智能模型开源可能并非总是如此。 例如,一些“开源”模型是部分开源的,因为它们是从 LLaMA 进行微调的,而 LLaMA 并未完全向公众开源,而且模型训练的数据集有时也是私有不开放的。另外需要注意的是,这些模型可能是开源的,但具有限制它们使用方式的限制性许可条件。因此,大家在使用开源模型时,一定要仔细考虑“开源”在每个特定情况下的含义,并且仔细阅读开源许可和使用条款。

半开源模型

1. Vicuna

1_dX9N6c2ZMjbhOUXc4uURig.jpg

Vicuna 是最近最炙手可热的开源聊天机器人模型。 据说该模型效果接近 90% 的 ChatGPT 质量,令人印象深刻。该模型基于经过微调的 LLaMa-13B 模型,由一群来自美国多个著名机构的天才开发者开发。 Vicuna 根据从 ShareGPT 获取的对话数据集进行了微调,ShareGPT 是一个可以发布使用 ChatGPT 进行的不同对话的网站。

为了对 Vicuna 进行基准测试,开发人员使用了一种有趣的方法。 他们向 Alpaca、Bard 和 ChatGPT 等不同模型提供提示,然后为每个模型生成一个分数。 结果,LLaMa 得分最低,因为它没有微调,而 Alpaca 表现不错。 然而,Vicuna 的表现优于 Alpaca,并且在测试中非常接近 Bard。 ChatGPT 得分为 100%,因为这是对标的模型。

值得注意的是,为聊天机器人构建评估体系依然是一个悬而未决的问题,需要进一步研究。 如何针对不同的模型制定出最佳的提示策略是研究的重要方向之一,因此针对单一模型的评估方法仍然很有价值。

1_TG7kq4V68JFn8f0R3tFIMw.png

2. GPT4ALL

GPT4ALL.png

GPT4ALL 是最近发布的语言模型,一经推出就在 NLP 社区引起轰动。 它是由一家名为 Nomic AI 的公司在 LLaMA 语言模型之上构建的,可以用于商业目的(有在 Apache-2 许可下发布的 GPT4ALL-J)。 然而,需要注意的是,用于训练模型的数据是使用 OpenAI 的 GPT-3.5 turbo API 生成的,这可能是会违反 OpenAI 的服务条款。 因此,在更好地理解其训练数据的法律含义之前,不建议将该模型用于商业目的。

GPT4ALL 是一个有趣的项目,它建立在 Alpaca 和其他语言模型的工作之上,使用特定数据集微调语言模型并对其进行扩展,通过使用大量的提示-响应对来训练更健壮和通用的模型。 提示-响应对使用 GPT-3.5 turbo 生成,生成的数据集使用 Nomic AI 开发的工具进行过滤,该工具可以轻松搜索和过滤提示-响应对。

GPT4ALL 另一个有趣的特性是它能够在 Apple 的 M1 和 M2 芯片上运行。这个特性让 GPT4ALL 可以在笔记本电脑、手机等便携式设备上运行。GPT4ALL 的创建者提供了在这些设备上设置模型的详细说明,这使得用户可以轻松上手该工具。

性能方面,GPT4ALL 可与一众最先进的语言模型相媲美。 Nomic AI 报告称,该模型实现了较低的事实困惑度,这是语言模型广泛使用的基准。这表明 GPT4ALL 能够对范围广阔的提示生成高质量的响应,并且能够处理复杂而细微的语言任务。

3. Koala

1_mtu5_LUB69Sddk658HUzKA.png

Koala 模型是为学术研究而创建的对话模型,在基于对话的两种类型(Distillation Data/Open-source Data)监督微调数据集上进行了训练。该模型建立在 LLaMA 之上,并且评估表现通常优于 Alpaca ,并且在超过一半的情况下与 ChatGPT 接近。

Koala 主要利用从网络上抓取的数据进行训练,大部分是对话数据,包括来自 ChatGPT 和其他公共数据集的数据。 构建 Koala 的 LLaMA 模型接受了数万亿 token 的训练,使其始终成为强大的科研模型。Koala 的训练代码、模型权重以及权重增量都在 Meta AI 的许可限制下公开可用 。100 名不同人士使用 Amazon Mechanical Turk 对该模型进行了对话微调和评估。

用于训练 Koala 的数据集是高质量小数据集的集合,包括来自 SharedGPT 的 ChatGPT 蒸馏数据,去重和去除非英语数据后包含约 30,000 个示例。 实际训练中使用了更多的数据集,例如 Human GPT Comparison Corpus 和其他开源数据集,例如 30K Open Instruction Generalist standard Stanford 数据集,20K OpenAI webGPT 和 93K OpenAI summarization。 这些是公开可用的各种数据集,都在训练期间使用过。

Koala 的优势不在于数据量,而在于数据质量。他们精选了问答、人类反馈和与现有大型语言模型对话的组合来创建用于训练 Koala 的数据集。 人类评估在提高 Koala 表现方面起着至关重要的作用。

全开源模型

4. Dolly 2.0

Dolly PNG (1).png

Dolly 2.0 是 Databricks 最近发布的模型,这是 Dolly 模型的第二个版本。 Databricks 开发 Dolly 2.0 的目标是制作一个既可用于商业又可用于研究的模型。他们所做的主要改动之一是将基础模型由 LLaMa 换成 Pythia,然后对其微调以获得出色的效果。Databricks 意识到他们之前使用的基于 ChatGPT 或 GPT-3 生成的数据集不适合商业用途,因此他们创建了一个包含 15,000 个指令任务的新数据集,并由公司 5,000 名员工标记了数据。

Databricks 让员工标注数据包括七项具体任务:

  • 开放式问答,涉及提出可能有或可能没有正确答案的问题,需要了解世界。
  • 封闭式问答,可以使用参考文本中的信息回答问题。
  • 从维基百科中提取信息,注释者在其中复制段落并提取事实信息。
  • 通过将段落提炼成简短的摘要来总结来自维基百科的信息。
  • 头脑风暴,要求开放式构思和可能选项列表。
  • 分类,注释者在其中对类成员资格或文本属性做出判断。
  • 创意写作涉及写诗或情书等任务。

5. OpenAssistant

Open_Assistant_vs_ChatGpt_which_is_better.png

Open Assistant 是由 Yannic Kilcher,一位备受欢迎的 YouTube博主,以及来自 LAION AI 和开源社区的一些开发者发起的项目。 该项目旨在构建一个完全开源的 ChatGPT 风格的项目。允许用户在线使用该模型或根据特定需求对其进行微调。

Open Assistant 的用户界面跟 ChatGPT 非常类似,都是对话式交互。用户可以单击进入不同的聊天并开始与模型对话。到目前为止,oasst-sft-6-llama-30b 模式是列表中唯一可选的模型,它在 Open Assistant 数据集上进行了监督微调,并可通过多个预设参数进行调整,例如 top-ktop-ptemperature。 Open Assistant会根据社区反馈更改这些设置以获得更好的响应。

1_0OVBocBkFzmWSFOIKGBlKg.png

Open Assistant 最吸引人也是最独特的部分是其基于 Web 的仪表板,它允许用户完成任务并帮助训练 AI 模型。 用户可以从各种类型的任务中进行选择,例如对提示进行分类或对模型回复进行排名。完成任务会获得积分,用户可以在仪表板上跟踪他们的进度和级别。甚至会显示排名前 5 的贡献者。这是模型创建者需要考虑的关键事项,因为模型访问的数据越多(越开放),其性能就越好。一套友好的用户界面是大家积极使用并为项目做出贡献的好方法。

1_ymkvCnbR7H2VJXT-c4IPMw.png

如果您想基于 Open Assistant 开发应用,可以查看 Open Assistant 的 GitHub 代码库。该项目发布了许多不同的模型,还发布了完整的数据集。


以上是本文全部内容。

希望您能从本文中有所收获,感谢您的阅读!

目录
相关文章
|
机器学习/深度学习 人工智能 Linux
AI让照片换发型,Barbershop开源项目安装使用 | 机器学习
AI让照片换发型,Barbershop开源项目安装使用 | 机器学习
AI让照片换发型,Barbershop开源项目安装使用 | 机器学习
|
3天前
|
人工智能 Linux API
【AI大模型应用开发】【AutoGPT系列】1. 快速上手 - 运行原生AutoGPT or 利用AutoGPT框架开发自己的Agent
【AI大模型应用开发】【AutoGPT系列】1. 快速上手 - 运行原生AutoGPT or 利用AutoGPT框架开发自己的Agent
5 0
|
1月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM的测试工具:LaVague平替成国内大模型
LaVague是一款使用LLM将自然语言转换为Selenium代码以实现自动化测试的工具。由于huggingface的某些模型需付费且访问不便,本文介绍了如何使用智谱的免费大模型作为替代。智谱提供免费的embedding模型和大量令牌。
69 1
|
2月前
|
API 文件存储 决策智能
抢鲜评测AgentScope:Agent+游戏制作+视频生成的新范式
LLM-Powered Agent凭借长期记忆+自主规划+自动执行等特性,是探索人工通用智能(AGI)的可能途径之一;而Multi-Agent让多个agent通讯来实现协作,也模拟了人类社交及工作协同场景,旨在探索更高质高效的人机协作模式。
|
7月前
|
机器学习/深度学习 人工智能 物联网
大模型时代,还缺一只雨燕 | SWIFT:魔搭社区轻量级微调推理框架
伴随着大数据的发展和强大的分布式并行计算能力,以预训练+微调的模型开发范式渐渐成为深度学习领域的主流。 2023年各家推出的大模型浩如烟海,如GPT4、Llama、ChatGLM、Baichuan、RWKV、Stable-Diffusion等。这些模型在达到越来越好的效果的同时也需要越来越多的算力资源:全量finetune它们动辄需要几十至上百G显存训练部署,一般的实验室和个人开发者无力承担。
|
4月前
|
API 网络架构 C++
Bito - 超越Copilot的一款神级插件
Bito - 超越Copilot的一款神级插件
83 0
|
11月前
|
自然语言处理 PyTorch 算法框架/工具
CLUE社区最新神器!PromptCLUE:大规模多任务Prompt预训练中文开源模型
CLUE社区最新神器!PromptCLUE:大规模多任务Prompt预训练中文开源模型
388 0
|
9月前
|
SQL 人工智能 JSON
如何用 GPT 在 5 分钟内 ”调教“ 出一个专属于你的 ”小黑子“?
如何用 GPT 在 5 分钟内 ”调教“ 出一个专属于你的 ”小黑子“?
394 0
|
11月前
|
人工智能 自然语言处理 前端开发
|
11月前
|
存储 自然语言处理 物联网
训练个中文版ChatGPT,开源!
训练个中文版ChatGPT,开源!