"ModelScope中,使用qlora微调qwen1.5-14b-chat-int4,报错了,是微调参数和报错吗? CUDA_VISIBLE_DEVICES=2 \swift sft \ --model_id_or_path /root/Qwen1.5-14B-Chat-GPTQ-Int4 \ --model_revision master \ --sft_type lora \ --tuner_backend peft \ --template_type AUTO \ --dtype fp16 \ --output_dir output \ --dataset_path /root/swift_14b/swift/llm/data/pai_identity.jsonl \ --train_dataset_sample -1 \ --num_train_epochs 2 \ --max_length 4096 \ --check_dataset_strategy warning \ --lora_rank 8 \ --lora_alpha 32 \ --lora_dropout_p 0.05 \ --lora_target_modules ALL \ --gradient_checkpointing true \ --batch_size 1 \ --weight_decay 0.1 \ --learning_rate 1e-4 \ --gradient_accumulation_steps 16 \ --max_grad_norm 0.5 \ --warmup_ratio 0.03 \ --eval_steps 100 \ --save_steps 100 \ --save_total_limit 2 \ --logging_steps 10 \ --use_flash_attn false \ --push_to_hub false \ --hub_model_id qwen1half-14b-chat-int4-qlora \ --hub_private_repo true \ --hub_token 'your-sdk-token' \
"
ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352