获星1.9k,LLM微调神器Lamini上演速度与激情,免费可用

简介: 获星1.9k,LLM微调神器Lamini上演速度与激情,免费可用

LLM 微调不再头疼。


LLM 微调从一件复杂的事情,已经通过不断的技术改进变得易上手起来。


这不,免费且迅速的 LLM 微调已经可以实现了。


4 月底,斯坦福的一群开发者发布了 Lamini,号称可以为每个开发人员提供从 GPT-3 带到 ChatGPT 的超能力。


近日,Lamini 推出了全新的 Alpha 公测版,让微调上演「速度与激情」。现在只需十分钟、三至五行代码就能实现微调,更重要的是 0 费用。


目前,4 亿参数以内的 LLM 微调完全免费。这只是一个开始。



项目地址:https://github.com/lamini-ai/lamini


Lamini 的优势


先来一起看看 Lamini 有哪些优势。



免费,适用于小型 LLM;

迅速,10-15 分钟;

很大,无限大小的 prompt,比最大的 prompt 多 1000 倍以上的空间;

学习,检索增强生成,它不仅是在已知的基础上试图理解内容,还在学习新东西。


并且,在 Lamini 的项目地址中有着


1400 个问答数据集(这是关于 Lamini 的内部工程文档,你也可以将其自定义);

在此数据集上运行 LLM 微调的代码;

回答问题的开源微调 LLM(例如关于 Lamini,或其他你想问的)。


Lamini 使用教程


使用示例


Lamini 真的有这么神吗?这里由一份示例请你查收。


首先,有一个需要微调的 LLM。示例中是一个关于 Lamini 内部工程文档的问答式 LLM。



该模型提供了一个聊天界面,它使用了一个 410M 参数的 Pythia 模型作为基础。


这个 410M 参数 LLM 的性能看起来并不令人满意。当询问:「我如何向 Lamini 添加数据?」时,它给出的答案并不靠谱。



你还可以给它输入数据。对于本例,你有一个关于 Lamini 的 1400 个问题和答案的数据集。虽然它看起来很小,但它比目前最大的 Prompt 大小要大得多 (约 120K)。


以下是准备数据的专业建议:质量非常重要。只要 100 个高质量的例子就能让你走上正确的道路。那么什么是高质量?


高质量:连贯、清晰、准确的示例。

多样化:涵盖广泛的主题和数据范围,应避免虚假关联和数据偏差。

真实:实际的用户数据或人为创建的示例,而不是 LLM 生成的虚假示例,以捕捉人机交互的细微差别,并改进模型,使其超越现有的生成能力。


然后,只需将这些数据加载到模型中,并告诉它进行训练:



只需要 10-15 分钟,你就可以运行这个 LLM 了。


让我们再次问同样的问题,「我如何向 Lamini 添加数据?」,内容如下:



这次的答案是正确的了,看来微调发挥了显著的效果。


如何使用 Lamini 训练 LLM


1、使用 Lamini Types 定义 LLM 接口。你想让它成为一个聊天机器人?接口就是问进答出。你想让它成为代码 copilot?接口就是程序输入,更多程序输出。使用你的类型运行一般的 LLM(基本模型或基础模型)。


2、查找相关数据并创建 Lamini Types。哪些数据对执行任务的人类专家有用?获取该数据并创建与其模式相匹配的(附加)Lamini Types。它可以是支持性文档,如你的文档中的函数,用于你的代码聊天机器人,也可以是向你的机器人提出的示例问题。


3、使用 Lamini 将数据加载到 Types 中,并将 Types 加载到 LLM 中。这将你的数据转换为 Types 格式,以便 LLM 能够最好地从中学习。


4、获取与你的 LLM 接口相匹配的数据。如果没有?也没问题。这就是数据生成的目的,其中利用 LLM 管道。首先,使用 Lamini LLM Engine 运行数据生成,以获得更多正确的 Lamini Types(任何一种)数据。然后使用 Lamini 过滤器或你自己的脚本过滤数据,以获得高质量数据。


5. 通过优化训练使通用 LLM 专业化。使用 Lamini 库,针对所有数据训练你自己的 LLM。



参考链接:

https://twitter.com/realSharonZhou/status/1679212309938593797

https://www.lamini.ai/blog

https://github.com/lamini-ai/lamini

相关文章
|
7月前
|
机器学习/深度学习 自然语言处理
大语言模型(LLM)框架及微调 (Fine Tuning)
大语言模型(LLM)框架及微调 (Fine Tuning)
500 0
|
7月前
|
物联网 测试技术 API
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
|
1月前
|
机器学习/深度学习 自然语言处理 数据格式
社区供稿 |【8卡从零训练Steel-LLM】微调探索与评估
本篇文章主要介绍下微调上的探索以及评估。另外,还特意试了试训练CMMLU数据集,能在榜单上提多少分
|
2月前
|
Shell Docker Python
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
66 1
|
2月前
|
物联网 数据处理
LLM-05 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(微调实战1) 官方案例 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
LLM-05 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(微调实战1) 官方案例 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
87 0
|
2月前
|
人工智能 并行计算 算法
LLM-04 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(准备环境) 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
LLM-04 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(准备环境) 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
84 0
|
2月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
73 0
|
6月前
|
存储 机器学习/深度学习 自然语言处理
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
|
5月前
|
人工智能 安全 物联网
2024年6月后2周重要的大语言模型论文总结:LLM进展、微调、推理和对齐
本文总结了2024年6月后两周发表的一些最重要的大语言模型论文。这些论文涵盖了塑造下一代语言模型的各种主题,从模型优化和缩放到推理、基准测试和增强性能。
152 0
|
7月前
|
并行计算 算法 物联网
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南
LLM 大模型学习必知必会系列(七):掌握分布式训练与LoRA/LISA微调:打造高性能大模型的秘诀进阶实战指南

热门文章

最新文章