5个值得一试的开源大语言模型

本文涉及的产品
模型在线服务 PAI-EAS,A10/V100等 500元 1个月
模型训练 PAI-DLC,5000CU*H 3个月
交互式建模 PAI-DSW,每月250计算时 3个月
简介: 本文为大家整理了5个效果优秀和开源大语言模型,供大家学习研究。

5个值得一试的开源大语言模型

人工智能已经成为我们生活中不可或缺的一部分,而LLM(大型语言模型)处于这一变化的最前沿。 在对话式人工智能方面,大语言模型的性能最为关键。 虽然像 OpenAI 的 GPT-4 这样的商业大语言模型已经引起了所有人的关注,但开源模型在性能和流行度方面正在迅速赶上。 在社区和机构的不断贡献下,开发人员现在有机会访问更强大的开源对话式 AI 模型。这些开源模型得益于源代码开放的天然优势,可以提供更好的灵活性、更广泛的社区支持、更透明的技术细节,关键是可以极大节约时间和降低成本。

1_DKfl146dy7bNgIoaGmZmeQ.png

“模型开源”与“代码开源”不完全相同。虽然“开源”一词通常意味着源代码可供任何人使用、修改和分发,但人工智能模型开源可能并非总是如此。 例如,一些“开源”模型是部分开源的,因为它们是从 LLaMA 进行微调的,而 LLaMA 并未完全向公众开源,而且模型训练的数据集有时也是私有不开放的。另外需要注意的是,这些模型可能是开源的,但具有限制它们使用方式的限制性许可条件。因此,大家在使用开源模型时,一定要仔细考虑“开源”在每个特定情况下的含义,并且仔细阅读开源许可和使用条款。

半开源模型

1. Vicuna

1_dX9N6c2ZMjbhOUXc4uURig.jpg

Vicuna 是最近最炙手可热的开源聊天机器人模型。 据说该模型效果接近 90% 的 ChatGPT 质量,令人印象深刻。该模型基于经过微调的 LLaMa-13B 模型,由一群来自美国多个著名机构的天才开发者开发。 Vicuna 根据从 ShareGPT 获取的对话数据集进行了微调,ShareGPT 是一个可以发布使用 ChatGPT 进行的不同对话的网站。

为了对 Vicuna 进行基准测试,开发人员使用了一种有趣的方法。 他们向 Alpaca、Bard 和 ChatGPT 等不同模型提供提示,然后为每个模型生成一个分数。 结果,LLaMa 得分最低,因为它没有微调,而 Alpaca 表现不错。 然而,Vicuna 的表现优于 Alpaca,并且在测试中非常接近 Bard。 ChatGPT 得分为 100%,因为这是对标的模型。

值得注意的是,为聊天机器人构建评估体系依然是一个悬而未决的问题,需要进一步研究。 如何针对不同的模型制定出最佳的提示策略是研究的重要方向之一,因此针对单一模型的评估方法仍然很有价值。

1_TG7kq4V68JFn8f0R3tFIMw.png

2. GPT4ALL

GPT4ALL.png

GPT4ALL 是最近发布的语言模型,一经推出就在 NLP 社区引起轰动。 它是由一家名为 Nomic AI 的公司在 LLaMA 语言模型之上构建的,可以用于商业目的(有在 Apache-2 许可下发布的 GPT4ALL-J)。 然而,需要注意的是,用于训练模型的数据是使用 OpenAI 的 GPT-3.5 turbo API 生成的,这可能是会违反 OpenAI 的服务条款。 因此,在更好地理解其训练数据的法律含义之前,不建议将该模型用于商业目的。

GPT4ALL 是一个有趣的项目,它建立在 Alpaca 和其他语言模型的工作之上,使用特定数据集微调语言模型并对其进行扩展,通过使用大量的提示-响应对来训练更健壮和通用的模型。 提示-响应对使用 GPT-3.5 turbo 生成,生成的数据集使用 Nomic AI 开发的工具进行过滤,该工具可以轻松搜索和过滤提示-响应对。

GPT4ALL 另一个有趣的特性是它能够在 Apple 的 M1 和 M2 芯片上运行。这个特性让 GPT4ALL 可以在笔记本电脑、手机等便携式设备上运行。GPT4ALL 的创建者提供了在这些设备上设置模型的详细说明,这使得用户可以轻松上手该工具。

性能方面,GPT4ALL 可与一众最先进的语言模型相媲美。 Nomic AI 报告称,该模型实现了较低的事实困惑度,这是语言模型广泛使用的基准。这表明 GPT4ALL 能够对范围广阔的提示生成高质量的响应,并且能够处理复杂而细微的语言任务。

3. Koala

1_mtu5_LUB69Sddk658HUzKA.png

Koala 模型是为学术研究而创建的对话模型,在基于对话的两种类型(Distillation Data/Open-source Data)监督微调数据集上进行了训练。该模型建立在 LLaMA 之上,并且评估表现通常优于 Alpaca ,并且在超过一半的情况下与 ChatGPT 接近。

Koala 主要利用从网络上抓取的数据进行训练,大部分是对话数据,包括来自 ChatGPT 和其他公共数据集的数据。 构建 Koala 的 LLaMA 模型接受了数万亿 token 的训练,使其始终成为强大的科研模型。Koala 的训练代码、模型权重以及权重增量都在 Meta AI 的许可限制下公开可用 。100 名不同人士使用 Amazon Mechanical Turk 对该模型进行了对话微调和评估。

用于训练 Koala 的数据集是高质量小数据集的集合,包括来自 SharedGPT 的 ChatGPT 蒸馏数据,去重和去除非英语数据后包含约 30,000 个示例。 实际训练中使用了更多的数据集,例如 Human GPT Comparison Corpus 和其他开源数据集,例如 30K Open Instruction Generalist standard Stanford 数据集,20K OpenAI webGPT 和 93K OpenAI summarization。 这些是公开可用的各种数据集,都在训练期间使用过。

Koala 的优势不在于数据量,而在于数据质量。他们精选了问答、人类反馈和与现有大型语言模型对话的组合来创建用于训练 Koala 的数据集。 人类评估在提高 Koala 表现方面起着至关重要的作用。

全开源模型

4. Dolly 2.0

Dolly PNG (1).png

Dolly 2.0 是 Databricks 最近发布的模型,这是 Dolly 模型的第二个版本。 Databricks 开发 Dolly 2.0 的目标是制作一个既可用于商业又可用于研究的模型。他们所做的主要改动之一是将基础模型由 LLaMa 换成 Pythia,然后对其微调以获得出色的效果。Databricks 意识到他们之前使用的基于 ChatGPT 或 GPT-3 生成的数据集不适合商业用途,因此他们创建了一个包含 15,000 个指令任务的新数据集,并由公司 5,000 名员工标记了数据。

Databricks 让员工标注数据包括七项具体任务:

  • 开放式问答,涉及提出可能有或可能没有正确答案的问题,需要了解世界。
  • 封闭式问答,可以使用参考文本中的信息回答问题。
  • 从维基百科中提取信息,注释者在其中复制段落并提取事实信息。
  • 通过将段落提炼成简短的摘要来总结来自维基百科的信息。
  • 头脑风暴,要求开放式构思和可能选项列表。
  • 分类,注释者在其中对类成员资格或文本属性做出判断。
  • 创意写作涉及写诗或情书等任务。

5. OpenAssistant

Open_Assistant_vs_ChatGpt_which_is_better.png

Open Assistant 是由 Yannic Kilcher,一位备受欢迎的 YouTube博主,以及来自 LAION AI 和开源社区的一些开发者发起的项目。 该项目旨在构建一个完全开源的 ChatGPT 风格的项目。允许用户在线使用该模型或根据特定需求对其进行微调。

Open Assistant 的用户界面跟 ChatGPT 非常类似,都是对话式交互。用户可以单击进入不同的聊天并开始与模型对话。到目前为止,oasst-sft-6-llama-30b 模式是列表中唯一可选的模型,它在 Open Assistant 数据集上进行了监督微调,并可通过多个预设参数进行调整,例如 top-ktop-ptemperature。 Open Assistant会根据社区反馈更改这些设置以获得更好的响应。

1_0OVBocBkFzmWSFOIKGBlKg.png

Open Assistant 最吸引人也是最独特的部分是其基于 Web 的仪表板,它允许用户完成任务并帮助训练 AI 模型。 用户可以从各种类型的任务中进行选择,例如对提示进行分类或对模型回复进行排名。完成任务会获得积分,用户可以在仪表板上跟踪他们的进度和级别。甚至会显示排名前 5 的贡献者。这是模型创建者需要考虑的关键事项,因为模型访问的数据越多(越开放),其性能就越好。一套友好的用户界面是大家积极使用并为项目做出贡献的好方法。

1_ymkvCnbR7H2VJXT-c4IPMw.png

如果您想基于 Open Assistant 开发应用,可以查看 Open Assistant 的 GitHub 代码库。该项目发布了许多不同的模型,还发布了完整的数据集。


以上是本文全部内容。

希望您能从本文中有所收获,感谢您的阅读!

目录
相关文章
|
6月前
|
机器学习/深度学习 人工智能 算法
【极客技术】ColossalChat用完整RLHF技术克隆ChatGPT的开源解决方案
【极客技术】ColossalChat用完整RLHF技术克隆ChatGPT的开源解决方案
128 0
|
2月前
|
并行计算 IDE 物联网
开源代码大模型CodeFuse
蚂蚁集团在2023外滩大会上开源了自研代码生成模型CodeFuse,提供智能代码建议和实时支持,评测得分超越GPT-4和WizardCoder-34B。CodeFuse适用于开发助手、IDE插件等场景,现已在魔搭社区开放下载与体验,包括CodeFuse13B-4K和CodeFuse-CodeLlaMa34B-MFT两个版本,以及配套数据集CodeExercise-Python-27k和Evol-instruction-66k。
62 1
|
4月前
|
数据可视化 物联网 Swift
谷歌开源Gemma2!魔搭社区推理、微调最佳实践教程
Google面向全球研究人员和开发者发布并开源 Gemma 2 大语言模型!本次Gemma 2 系列为轻量级开放模型,提供9B和27B参数两种尺寸,采用全新的架构设计,性能表现优异。
|
6月前
开箱黑盒LLM!谷歌大一统框架Patchscopes实战教程来了
【5月更文挑战第7天】谷歌推出Patchscopes框架,提升大型语言模型(LLM)的可解释性,通过分解LLM为可解释的Patch模型进行调试。本文提供实战教程,介绍如何安装Patchscopes库、加载预训练模型并查看模型解释性报告。虽然优势在于增强理解与问题定位,但Patchscopes适用模型有限,报告理解需专业知识,且计算成本高。[论文链接](https://arxiv.org/pdf/2401.06102.pdf)
66 1
|
机器学习/深度学习 人工智能 物联网
大模型时代,还缺一只雨燕 | SWIFT:魔搭社区轻量级微调推理框架
伴随着大数据的发展和强大的分布式并行计算能力,以预训练+微调的模型开发范式渐渐成为深度学习领域的主流。 2023年各家推出的大模型浩如烟海,如GPT4、Llama、ChatGLM、Baichuan、RWKV、Stable-Diffusion等。这些模型在达到越来越好的效果的同时也需要越来越多的算力资源:全量finetune它们动辄需要几十至上百G显存训练部署,一般的实验室和个人开发者无力承担。
|
6月前
|
机器学习/深度学习 人工智能 自然语言处理
LLM的测试工具:LaVague平替成国内大模型
LaVague是一款使用LLM将自然语言转换为Selenium代码以实现自动化测试的工具。由于huggingface的某些模型需付费且访问不便,本文介绍了如何使用智谱的免费大模型作为替代。智谱提供免费的embedding模型和大量令牌。
388 1
|
自然语言处理 PyTorch 算法框架/工具
CLUE社区最新神器!PromptCLUE:大规模多任务Prompt预训练中文开源模型
CLUE社区最新神器!PromptCLUE:大规模多任务Prompt预训练中文开源模型
494 0
|
11月前
|
API 网络架构 C++
Bito - 超越Copilot的一款神级插件
Bito - 超越Copilot的一款神级插件
153 0
|
人工智能 搜索推荐 安全
2023 年8个ChatGPT 的替代品
OpenAI 于 2022 年 11 月下旬推出的 ChatGPT 在网络世界引起了不小的轰动。它不仅引起了社交媒体用户的关注,也引起了各大媒体的关注。
2459 6
2023 年8个ChatGPT 的替代品
|
人工智能 自然语言处理 前端开发

热门文章

最新文章