llama factory微调报错CUDA未被检测!

在modelscope平台利用llama factory进行Qwen2-VL-7Binstruct模型微调时,报错:CUDA未被检测。
1.png
2.png

我的GPU配置:Ubuntu22.04-CUDA12.1.0-PY310-TORCH2.3.1-TORCH2.3.1 -tf2.16.1-1.23.0

展开
收起
游客pbdscttait5hi 2025-02-24 19:42:44 655 分享 版权
0 条回答
写回答
取消 提交回答

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

热门讨论

热门文章

还有其他疑问?
咨询AI助理