关于qwen2-vl微调最佳实践

我使用参考链接https://www.modelscope.cn/docs/large-model-training-and-inference/multimodal/best-practice/qwen2-vl 中的图像描述微调进行微调测试。
无论我使用Qwen2-VL-2B-Instruct还是Qwen2-VL-7B-Instruct进行微调,都会报错
[rank0]: torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 74.46 GiB.
正常来说无论是就算是7B应该也不会需要到75G左右的微调显存吧,而且就算7B需要那么多,2B也不应该一点变化也没有,也是那么多。
我运行的参数为:
os.environ['TORCH_CUDA_ARCH_LIST']="9.0"
os.environ['CUDA_VISIBLE_DEVICES'] = '0'
os.environ['NPROC_PER_NODE'] = '1'
os.environ['PYTORCH_CUDA_ALLOC_CONF'] = 'expandable_segments:True'

sys.argv.extend(['--model_type', 'qwen2_vl'
,'--model','/home/DataAndModel/model_file/Qwen/Qwen2-VL-2B-Instruct'
, '--train_type', 'lora'
, '--dataset', '/home/DataAndModel/Data_flie/Ray_test/train.jsonl'
, '--val_dataset', '/home/DataAndModel/Data_flie/Ray_test/val.jsonl'
, '--deepspeed', '/home/DataAndModel/model_file/Qwen/Qwen2-VL-Instruct-sft/deepSpeed.json'
, '--num_train_epochs', '2'
, '--lora_rank', '4'
, '--lora_alpha', '8'
, '--gradient_checkpointing', 'true'
, '--weight_decay', '0.1'
, '--learning_rate', '1e-4'
, '--max_length', '1024'
])
数据集为自定义数据集,格式也是链接中的格式,大概来说
{"query": "55555", "response": "66666", "images": ["image_path"]}

整体数据集也只有20多条数据。用尽各种方法想要降低显存消耗,但是最后都会提示Tried to allocate 74.46 GiB。
望各位大神不吝赐教,在此拜谢

展开
收起
aliyun1801097965 2025-01-06 11:33:10 154 发布于广东 分享
分享
版权
举报
2 条回答
写回答
取消 提交回答
  • 关于Qwen-2-VL微调的最佳实践,建议参考阿里云官方文档以获取详细步骤和优化技巧:Qwen-2-VL微调指南,如果需要更详细的帮助,可以咨询一下阿里云的工作人员。如果对您有帮助的话,可以帮忙采纳一下。谢谢。

    2025-02-09 23:52:53 举报
    赞同 91 评论

    评论

    全部评论 (0)

    登录后可评论
  • 你遇到的显存问题可能与你的显卡CUDA版本或驱动有关,建议检查CUDA和驱动版本是否匹配。此外,尝试减少batch size或调整模型参数以降低显存需求,如果还是不理解的话,可以直接询问阿里云客服,或者提交工单给阿里云的技术顾问,回答不易,麻烦大佬给个采纳,谢谢。

    2025-02-09 21:11:27 举报
    赞同 77 评论

    评论

    全部评论 (0)

    登录后可评论

包含图像描述、文本生成图片、版面分析、多模态表征、视觉问答、文档理解等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理