加载Qwen/Qwen-7B-Chat模型报错

加载Qwen/Qwen-7B-Chat模型总是报错,但是from_pretrained()第一个参数不是可以这样写吗?

from modelscope import AutoModelForCausalLM, AutoTokenizer, GenerationConfig


tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-7B-Chat", trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True).eval()

报错如下图:
image.png

展开
收起
pklim101 2025-07-14 21:43:09 131 分享 版权
0 条回答
写回答
取消 提交回答

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

还有其他疑问?
咨询AI助理