社区供稿 |【8卡从零训练Steel-LLM】微调探索与评估

本文涉及的产品
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
云解析 DNS,旗舰版 1个月
全局流量管理 GTM,标准版 1个月
简介: 本篇文章主要介绍下微调上的探索以及评估。另外,还特意试了试训练CMMLU数据集,能在榜单上提多少分

01前言

今年二月份,机缘巧合,朋友搞到了一台A100 80G SXM,机器放着也是怪浪费的,便萌生了从零预训练一个LLM的想法。一台机器不算多,并且最多可能也就用个3-4个月,掐指一算,训个1B左右的模型,1T左右的数据应该差不多。好景不长,机器用了一个多月吧,就被收回了,当时模型才训到了20k step(预计要训练100k step)。天无绝人之路,真的非常感谢某top 3老师的资助,支持了一个多月的一台H系列机器,才得以让我们的项目顺利完成。

打工的牛马,工作日10点到家,亦或是周末,靠着兴趣,每天弄点,拖拖拉拉,转眼已经到了10月了,才弄出来一个自己觉得差不多还说的过去的模型。和其他模型不太一样,我们的模型预训练时以中文语料为主,大概只有20%左右的英文数据,因此就不在英文榜单上现眼了。微调以后,最终在CEVAL上获得了38分,CMMLU上获得了33分(这已经比一些大几倍的开源模型效果要好了。叠甲:开源数据的功劳,开源数据的功劳)。本篇文章主要介绍下微调上的探索以及评估。另外,还特意试了试训练CMMLU数据集,能在榜单上提多少分

之前也写了更详细的数据准备、训练框架改造、模型设计的文章:【从零训练Steel-LLM】预训练数据收集与处理【从零训练Steel-LLM】预训练代码讲解、改进与测试【从零训练Steel-LLM】模型设计

Github:

https://github.com/zhanshijinwat/Steel-LLM

模型:

项目也有交流群,满200人了,加 绿:a1843450905。

02微调数据

首先来介绍一下我们用的微调数据,主要目标是提高模型的对话能力和作题能力:

(1)BAAI/Infinity-Instruct

数据集链接:https://modelscope.cn/datasets/BAAI/Infinity-Instruct

开源数据的话,还是选大机构发布的靠谱一点,毕竟大机构还是要面子的,除此之外尽量选择新一些的。我们的模型是8月20号左右训练完的,BAAI正好在8月初才发布了Infinity-Instruct 7M数据集,正好就拿过来用了。这个数据集还给出了语言标签、任务类型等元信息,方便进一步筛选数据。最开始我就一把梭,直接把这700w数据全都训进去,但是CEVAL只有30出头的分数。后来才想起了这里边应该混有一些英文数据的,统计之后才发现只有70w左右的中文数据。因为Steel-LLM预训练数据中80%都是中文数据,微调时候用大部分都是英文的数据微调效果当然是不太好的。因此,最好版本的微调模型只用了70w的Infinity-Instruct的中文数据。

Infinity-Instruct微调数据集数量不少,也借此谈谈我对微调数据的看法。从很早开始,对于使用多一些的数据微调(《Exploring the Impact of Instruction Data Scaling on Large Language Models An Empirical Study on Real-World Use Cases》)还是精选几百、几千条数据微调(《LIMA:Less Is More for Alignment》)一直有争执。我觉得使用少量的微调数据得到一个好的sft模型前提是你的基础模型足够强大,如果模型比较弱的让它在微调阶段见识到更多的数据自然是好的。还有一种普遍说法是“预训练给模型注入知识,微调学习对话方式、激活知识”,经常会见到有人争执微调到底能不能注入知识的问题。我觉得只能说预训练的和微调的主要目的分别是注入知识和学习对话方式,微调和预训练一样,也是next token的训练,当然也能注入知识了。因此在微调Steel LLM时,我使用了百万级别的大量sft数据。

(2)wanjuan中文选择题部分

数据集链接:https://modelscope.cn/datasets/Shanghai_AI_Laboratory/WanJuanCC

Steel-LLM预训练数据里边不仅有原始文本数据,还有诸如BELLE、moss等项目的对话数据(详细的数据组成可以看我之前的文章),本意是想通过在预训练数据中混入少量sft数据,让预训练之后的模型直接有一定的对话能力。但现实是,训练出来的模型续写能力和对话能力都不是很稳定。。。不能很好的输出选择题答案,有点四不像了。

因此考虑在微调阶段加入一些选择题数据,规范一下回答格式。其实wanjuan中文选择题部分在预训练阶段就有的,Steel-LLM项目的pretrain_modify_from_TinyLlama/scripts/ prepare_steel_llm_data.py文件里甚至还有专门处理这部分数据的逻辑,相当于在微调阶段再回炉重造一遍。wanjuan选择题的一条数据形式如下所示,除了问题、选项和答案以外,还有"解析"(answer_detail)。个人认为“解析”部分还是很重要的(如果没有解析,真的更像是背答案了),qwen等模型在回答选择题时候也会输出解析,说明他们的sft数据的选择题也是有解析的。

{'id': 'BkQQU-7xK3YAJdm0cWMc', 'q_type': '单选题', 'q_main': '下列属于同种物质的是()', 'option_a': '冰和水', 'option_b': '铁和铁锈', 'option_c': '镁和氧化镁', 'option_d': '金刚石和石墨', 'option_e': '', 'std_ans': 'A', 'answer': '', 'answer_detail': 'A、冰时由H、O元素组成,水是由H、O元素组成,化学式都是H2O,属于同种物质,故A正确; \nB、铁中只有铁元素,而铁锈中有铁和O元素,显然组成元素不同,不属于同种物质,故B错误; \nC、镁中只有镁元素,氧化镁中有镁和氧元素,组成元素不同,不属于同种物质,故C错误; \nD、金刚石和石墨都是碳元素组成的,但碳原子的排列方式不同,结构不同,不属于同种物质,故D错误; \n故选A', 'grade': '九年级', 'major': '化学', 'keypoint': '化学式的书写及意义'}

在构造选择题微调数据时,考虑cot和非cot两种格式,后文也会展示这两种微调方式的在选择题上的得分。cot格式先输出“解析”,再输出答案;非cot格式,先输出答案,再输出“解析”。具体格式如下:

cot格式:

# 替换“解析”里的答案部分,最后统一输出答案。
answer = f'{item["answer_detail"]}'
pattern = r"故选.*"
answer = re.sub(pattern, '', answer, flags=re.DOTALL)
answer = answer + f'答案为{item["std_ans"]}'
instruct = f"以下是一道{json_obj['q_type']}:\n{choice}请先给出解释再给出答案。\n"

非cot格式:

answer = f'{item["std_ans"]}。{item["answer_detail"]}'
instruct = f"以下是一道单选题:\n{choice}请给出答案。\n"

(这里自我吐槽一下,这项目真的持续太久了,微调时候都忘记了预训练数据里还有选择题数据这回事。。。还是刷github时候看了survivi/Llama-3-SynE数据里有选择题,本来想用正则表达式从里边提取出选择题,后来嫌麻烦直接发邮件问作者选择题哪来的,才发现是wanjuan数据的选择题)

(3)ruozhiba

数据集链接:https://modelscope.cn/datasets/AI-ModelScope/Psych-101/Better-Ruozhiba

之前比较火的“弱智吧”微调数据,问题来源于百度贴吧“弱智吧”,由GPT4回答。我使用的优化版的“弱智吧”数据:Better-Ruozhiba,人为审阅了每一条的原文和回复,剔除了一些原文中的格式错误,修改或重写了部分答案。

(4)自我认知数据

通过微调的方式让Steel-LLM知道自己是Steel-LLM,数据内容就是各种形式的问模型“你是谁”。模板来自于EmoLLM项目,地址如下,将原来数据中的“心理健康助手”替换为了“Steel-LLM”

https://github.com/SmartFlowAI/EmoLLM/blob/main/datasets/self_cognition_EmoLLM.json

03其他模型在ceval/cmmlu的表现

这块列一下其他模型在benchmark上的表现,让读者大概有个分数的概念。我们的1B模型在中文榜单上的表现已经比一些更大的早期的模型效果好了,这得益于开源数据的进步。(当然,也有一些模型本身训练数据里中文数据就少,比如llama)

来自ceval论文的榜单:

image.png

来自MiniCPM榜单:https://arxiv.org/pdf/2404.06395

image.png

来自MAP-Neo论文的榜单:

https://arxiv.org/pdf/2405.19327

image.png

04微调实验

我尝试了构造不同数据组成、格式的微调数据,查看模型在微调不同微调step下的ceval和cmmlu准确率,微调数据构造和评估代码也已经更新到了Steel LLM的项目中了。如果不特别说明的话,微调加载的是预训练1060k step的预训练模型,对数据微调3个epoch,学习率为2e-5,micro batch 大小为8,累计8个 micro batch进行一次反向传播(模拟单卡batch size=64),wanjuan exam数据集默认不使用cot方式。每次实验都带着ruozhiba数据和自我认知数据,数据量很少,主要是对Infinity-Instruct数据和wanjuan exam数据上做探索(有的实验组没有cmmlu的评测结果)

实验1:全量Infinity-Instruct数据+全量wanjuan exam

随着微调step不断增加,ceval的指标是会上涨的,但微调到18000step之后变化就不大了。最好能拿到32%的准确率。因此有如下猜想:即使wanjuan exam在预训练里已经见过,但因为模型比较小,训练过的数据仍然会忘掉一些,微调多一些的数据还是有益的(小模型情况下)。

image.png

实验2:70w Infinity-Instruct中文数据+全量wanjuan exam

Infinity-Instruct全量数据有700w条左右,这里边有大概630w的英文对话数据。因为Steel-LLM在预训练时候80%都是中文,微调数据如果有很多英文是会影响到模型性能的,将Infinity-Instruct里边的英文数据全部去掉,只保留70w的中文数据能拿到更高的准确率。在ceval和cmmlu上的准确率如下所示,这是Steel-LLM的最好的一版模型,ceval达到了38%的准确率,cmmlu达到了33%的准确率。

ceval准确率:

image.png

cmmlu准确率:

image.png

实验3:CMMLU刷榜测试

有一些工作(比如天工大模型的技术报告:https://arxiv.org/pdf/2310.19341)已经表明了目前各种榜单上排名靠前的某些模型有刷榜的行为(直接过拟合测试集),论文《Training on the Benchmark Is Not All You Need》也证明了这一点。笔者比较好奇,如果我直接去过拟合CMMLU测试数据,最多能在CMMLU上拿到多少分。

笔者在70w Infinity-Instruct中文数据+wanjuan选择题数据+ruozhiba数据+自我认知数据的基础上,消融在训练数据中直接加入CMMLU数据对模型的影响。(这块由于笔者的疏忽,训练加载的checkpoint是实验1训练出来的checkpoint而不是原始预训练出来的模型。。。通过CEVAL正确率没有进一步增长,也能说明在实验1训练3个epoch的基础上,再多训练几个epoch已经没啥收益了)

当训练集中加入CMMLU数据时,在CMMLU上测试可以拿到36%的正确率,而训练集中不加入CMMLU数据时,也能达到33%左右的正确率,说明过拟合数据集对于刷榜是有一定作用的,但是作用不是特别大(单纯对于小的模型来说,死记硬背都不能特别好记下来)。笔者这里在对CMMLU进行sft时只让模型去预测答案选项(搞不到解释),猜测如果sft时让模型去学习选项+解释能涨分更多。一些开源模型在做选择题时候,即使你告诉他只回答选项不要给出解释,很多时候依然会回答一大串解释。。。

虽然CMMLU和CEVAL题的类型大部分相同(STEM、social science等),但是对CMMLU进行过拟合并不能提升模型在CEAVL上的分数,说明在小模型上过拟合测试集的泛化性一般。  

   

(1)训练集中加入CMMLU数据

CEVAL

image.png

CMMLU

image.png

(2)训练集中不加入CMMLU数据

CEVAL

image.png

CMMLU

image.png

实验4:COT回答方式

笔者在实验1的数据配置下(全量Infinity-Instruct数据+全量wanjuan exam),按照COT的方式微调wanjuan exam数据,在ceval上的准确率如下所示

image.png

效果甚至比非COT的方式训练出来的还要差一些,可能是小模型的推理能力还是不太行。我也尝试了让某家大厂的1.5B模型通过“先输出解释再输出答案”的方式回答,但是很多情况下模型还是会先输出答案再输出解释,或者干脆只输出答案。说明它们在微调时候数据格式应该也应该是先输出答案的,并没有使用COT的方式。

05case展示

好的case

Q: 你的名字是什么

我的名字是SteelLLM,由SteelLLM团队开发,旨在为用户提供智能的回答和帮助。

Q: 写一个快速排序

快速排序是一种基于分治思想的排序算法,它通过选择一个基准元素,将数组分成两个子数组,然后递归地对这两个子数组进行排序。以下是快速排序的步骤:
1. 选择基准元素:选择一个基准元素,例如数组的第一个元素。
2. 分割数组:将数组分成两个子数组,分别递归地对这两个子数组进行排序。
3. 递归排序:递归地对这两个子数组进行排序,直到它们的长度相等或它们的顺序不改变。
4. 重复步骤2和步骤3,直到整个数组有序。
下面是Python实现的快速排序算法:
```python
def quick_sort(arr):
    if len(arr) <= 1:
        return arr
    pivot = arr[len(arr) // 2]
    left = [x for x in arr if x < pivot]
    middle = [x for x in arr if x == pivot]
    right = [x for x in arr if x > pivot]
...
print(quick_sort(arr)) # [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
输出结果为:[1, 2, 3, 4, 5, 6, 7, 8, 9]

Q:介绍一下北京

北京是中国的首都,位于华北平原上。它是一个历史悠久的城市,拥有丰富的文化遗产和历史遗迹。
北京市区是全国最大的城市之一,也是中国最著名的旅游景点之一。它是中华人民共和国的首都、直辖市、国家中心城市、国际大都市、世界著名的历史文化名城和现代化国际化大都市。
在历史上,北京曾经被划为东交民巷地区,并成为外国使节居住的地方。现在,北京已经成为一个重要的国际性城市,在全球范围内享有盛誉。
在北京,你可以参观许多博物馆、艺术馆和其他文化机构。此外,你还可以品尝到各种美食,如烤鸭、炸酱面等传统小吃。
总之,北京是一座充满活力和魅力的城市,无论你是来观光还是休闲度假,这里都是你的不二选择。

Q:请将以下内容翻译成中文:A new giant step toward making rockets completely reusable was made when the SpaceX Starship successfully landed at a designated position alongside a landing tower six minutes after launch on Sunday.

(翻译有点磕磕巴巴的感觉,大致意思是对的,Steel-LLM的英文数据只有20%有点少)

在星期天,SpaceX成功地降落在一个指定位置与发射塔六分钟后降落的6公里跑道上的一段距离中。这是太空探索技术公司(SpaceX)星舰飞船首次完全使用火箭进行升空任务。

Q:请将以下内容翻译成英文:大模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。

(大致意思是对的,但是有自由发挥的成分)

Q:请将以下内容翻译成英文:大模型是指具有大规模参数和复杂计算结构的机器学习模型。这些模型通常由深度神经网络构建而成,拥有数十亿甚至数千亿个参数。大模型的设计目的是为了提高模型的表达能力和预测性能,能够处理更加复杂的任务和数据。
(大致意思是对的,但是有自由发挥的成分)

Q:请以下面词语为主题写一首诗:春天

春风吹拂万物生,
百花争艳竞相放。
绿草如茵,花香四溢,
鸟语虫鸣,乐享其中。

Q:列出斐波那契数列的前6个数

1, 1, 2, 3, 5, 8

差的case

Q:编写一个关于狗的笑话

(并不觉得好笑。。。不过我可能也写不出来关于狗的笑话)

为什么狗总是喜欢汪汪叫呢?因为它们觉得“汪”是他们的家!哈哈哈,怎么样,好笑吗?

Q:计算一下123+286的结果

(试了几个case,三位数加法的计算大部分情况计算结果会相差10以内)

123 + 286 = 405。

Q:小明有2个哥哥和6个姐姐,请问小明的爸爸有几个孩子

(少算了自己)

根据题目,我们可以列出一个简单的算式来表示这个问题:
```
小明的弟弟数 + 小明的妹妹数 = 总共的孩子数
```
其中,小明的弟弟数为 2,妹妹数为 6。将这两个数字相加即可得到总共有多少个孩子。
因此,答案是:小明的爸爸有8个孩子。

06小结及后续规划

Steel-LLM到目前为止应该基本算已经完工了,时间跨度比较大,后边应该还会写一篇汇总文章。对于正规LLM预训练项目,还有强化学习对齐的任务没做,这部分看以后还有没有时间和算力。之后打算做一些sft样本筛选的工作,看看模型还能不能再进步一些,也会以博客的形式更新,并将代码更新到github仓库,欢迎关注:https://github.com/zhanshijinwat/Steel-LLM

点击链接👇,直达模型

https://www.modelscope.cn/models/zhanshijin/Steel-LLM?from=alizishequ__text

相关文章
|
4月前
|
人工智能 自然语言处理
FBI-LLM低比特基础大语言模型来了,首个完全从头训练的二值化语言模型
【8月更文挑战第22天】《FBI-LLM:通过自回归蒸馏从头开始扩展全二值化大语言模型》由Ma等学者发布于arXiv。该研究呈现了首个完全从头训练的全二值化大语言模型FBI-LLM,在不牺牲性能的前提下大幅降低计算资源需求。通过自回归蒸馏技术,FBI-LLM在多种任务上展现出与高精度模型相当的表现,为二值化模型的发展开辟新路径,并有望推动专用硬件的进步。研究者公开了所有相关资源以促进领域内的进一步探索。
65 10
|
1月前
|
自然语言处理 开发者
多模态大模型LLM、MLLM性能评估方法
针对多模态大模型(LLM)和多语言大模型(MLLM)的性能评估,本文介绍了多种关键方法和标准,包括模态融合率(MIR)、多模态大语言模型综合评估基准(MME)、CheckList评估方法、多模态增益(MG)和多模态泄露(ML),以及LLaVA Bench。这些方法为评估模型的多模态和多语言能力提供了全面的框架,有助于研究者和开发者优化和改进模型。
|
7月前
|
物联网 测试技术 API
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
LLM 大模型学习必知必会系列(九):Agent微调最佳实践,用消费级显卡训练属于自己的Agent!
|
2月前
|
Shell Docker Python
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
65 1
|
2月前
|
物联网 数据处理
LLM-05 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(微调实战1) 官方案例 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
LLM-05 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(微调实战1) 官方案例 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
87 0
|
2月前
|
人工智能 并行计算 算法
LLM-04 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(准备环境) 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
LLM-04 大模型 15分钟 FineTuning 微调 ChatGLM3-6B(准备环境) 3090 24GB实战 需22GB显存 LoRA微调 P-TuningV2微调
84 0
|
2月前
|
开发工具 git
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
72 0
|
6月前
|
存储 机器学习/深度学习 自然语言处理
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
|
6月前
|
存储 人工智能 安全
使用‘消除’技术绕过LLM的安全机制,不用训练就可以创建自己的nsfw模型
本文探讨了一种名为“abliteration”的技术,该技术能够在不重新训练大型语言模型(LLM)的情况下移除其内置的安全审查机制。通常,LLM在接收到潜在有害输入时会拒绝执行,但这一安全特性牺牲了模型的灵活性。通过对模型残差流的分析,研究人员发现可以识别并消除导致拒绝行为的特定方向,从而允许模型响应所有类型的提示。
466 1
|
5月前
|
测试技术
谷歌DeepMind全新ToT基准:全面评估LLM时间推理能力
【7月更文挑战第10天】DeepMind的ToT基准测试了大型语言模型的时间推理能力,分为ToT-Semantic(合成数据,评估时间逻辑理解)和ToT-Arithmetic(真实数据,检查时间计算)。研究使用Claude-3-Sonnet、GPT-4和Gemini 1.5 Pro进行评估,发现模型在时间逻辑理解上表现各异,而时间计算上均较强。 Gemini 1.5 Pro在复杂问题上表现出色,而GPT-4在数学相关问题上较弱。[[1](https://arxiv.org/pdf/2406.09170)]
67 1

热门文章

最新文章

下一篇
DataWorks