开发者社区 > ModelScope模型即服务 > 计算机视觉 > 正文

我调用ModelScope的AutoTokenizer,为什么会去huggingface下载模型呢?

我调用ModelScope的AutoTokenizer,为什么会去huggingface下载模型呢?
5951b728b23db7ec03859b642a649c1d.png
cb22abe7b793c22c1a60f5593025316a.png

展开
收起
青城山下庄文杰 2023-08-12 09:52:10 359 0
2 条回答
写回答
取消 提交回答
  • 北京阿里云ACE会长

    我已经认真阅读了 你的问题:

    【 我调用ModelScope的AutoTokenizer,为什么会去huggingface下载模型呢?

    并思考了

    建议如下:


    ModelScope底层使用HuggingFace Transformers实现模型加载和推理功能。

    Transformers提供了大量预训练语言模型,直接从官网下载能获得最新版本。

    ModelScope未自己维护那么多预训练模型,下载速度更快不占用资源。

    HuggingFace是开源社区首推的预训练模型库,质量和兼容性得到广泛认可。

    通过HuggingFace获取模型,可以和他们生态中的其他库无缝兼容。

    ModelScope也可以选择将部分热门模型镜像到自己服务器,但增量模型需从来源下载。

    未来也可能考虑直接整合部分Transformer模型,但兼容性是首要考量。

    所以总体来说,利用HuggingFace这个开源领域的资源存储点,可以更高效地实现模型加载,也更容易与生态界保持兼容。

    2023-08-20 17:06:17
    赞同 展开评论 打赏
  • chatglm26b您可以使用from modelscope.models.nlp import ChatGLM2Tokenizer吧,这个问题我们最近会修复-此回答整理自钉群“魔搭ModelScope开发者联盟群 ①”

    2023-08-15 08:22:53
    赞同 展开评论 打赏

包含图像分类、图像生成、人体人脸识别、动作识别、目标分割、视频生成、卡通画、视觉评价、三维视觉等多个领域

相关电子书

更多
视觉AI能力的开放现状及ModelScope实战 立即下载
ModelScope助力语音AI模型创新与应用 立即下载
低代码开发师(初级)实战教程 立即下载