教程:https://www.modelscope.cn/learn/673
标题:15分钟掌握大模型自我认知微调,定制个人专属大模型
代码如下
pip config set global.index-url https://mirrors.aliyun.com/pypi/simple/
pip install 'ms-swift[llm]' -U
(小问题:这里两行代码必须分两个代码框,放在一个里面就会出错,不知道为什么)
代码如下
import os
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
from swift.llm import ModelType, InferArguments, infer_main
infer_args = InferArguments(model_type=ModelType.qwen2_7b_instruct, max_model_len=2048)
infer_main(infer_args)
(这部分没问题,可以实现与模型对话,并且最后用exit退出了)
以下是教程原文
本文使用LoRA的方法对Qwen进行微调。考虑到自我认知训练涉及知识编辑,我们不仅将注意力机制中的Linear层作为LoRA的目标模块,还增加了MLP中的Linear层,将lora_target_modules设置为'ALL'。我们将alpaca-zh和alpaca-en作为通用数据集和swift构建的自我认知数据集进行混合,以确保对模型自我认知的修改同时能够保持其在通用对话场景下的能力。
这里使用CLI的方式进行微调:
CUDA_VISIBLE_DEVICES=0 \
swift sft \
--model_type qwen2-7b-instruct \
--dataset alpaca-zh#500 alpaca-en#500 self-cognition#500 \
--logging_steps 5 \
--max_length 2048 \
--learning_rate 1e-4 \
--output_dir output \
--lora_target_modules ALL \
--model_name 小黄 'Xiao Huang' \
--model_author 魔搭 ModelScope \
(卡在了这一步,输入代码框后运行报错:
SyntaxError: invalid decimal literal (426654503.py, line 5))
不懂原理的小白,只是把代码都放进去先跑跑看,不知道为什么这一步会出错
稍微排了下版,求大佬解答
表明在你的Python程序(文件名为426654503.py)的第5行中,存在一个无效的十进制字面量,你可以把这个打印出来看看是个什么值