开发者社区 > ModelScope模型即服务 > 正文

ModelScope不联网的的状态下,按这种方式加载的模型,但是还是报错。是啥原因?

ModelScope不联网的的状态下,按这种方式加载的模型,但是还是报错。是啥原因?
2c65bf4414a66dcea2e18e43d11edf8e.png
025120f289293734b8e9cd74f5bb60ef.png
请问 必须联网,才能加载模型吗?

展开
收起
真的很搞笑 2023-06-17 17:01:49 372 0
2 条回答
写回答
取消 提交回答
  • 单个独立的模型应该是不需要联网的。如果是复合模型(一个模型pipeline调用了另外一个模型),那有可能本地加载支持的就不是那么完整了。麻烦ls下对应的目录,看下目录的内容,此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-07-24 16:36:13
    赞同 展开评论 打赏
  • 北京阿里云ACE会长

    将本地模型权重文件加载到模型中:

    python
    Copy
    from transformers import AutoTokenizer, AutoModelForQuestionAnswering

    tokenizer = AutoTokenizer.from_pretrained("bert-base-chinese")
    model = AutoModelForQuestionAnswering.from_pretrained("/path/to/local/model/weights")
    请确保将 "/path/to/local/model/weights" 替换为您实际下载的模型权重文件的本地路径。

    请注意,如果您使用的是预训练的语言模型,则还需要下载对应的 tokenizer 文件。您可以从 Hugging Face 的模型仓库中下载对应的 tokenizer 文件,然后将其加载到您的代码中。例如,对于中文 BERT 模型,您可以使用以下代码加载 tokenizer:

    python
    Copy
    from transformers import BertTokenizer

    tokenizer = BertTokenizer.from_pretrained("/path/to/local/tokenizer")
    请确保将 "/path/to/local/tokenizer" 替换为您实际下载的 tokenizer 文件的本地路径。

    2023-07-10 07:51:04
    赞同 展开评论 打赏

ModelScope旨在打造下一代开源的模型即服务共享平台,为泛AI开发者提供灵活、易用、低成本的一站式模型服务产品,让模型应用更简单!欢迎加入技术交流群:微信公众号:魔搭ModelScope社区,钉钉群号:44837352

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载