问题一:modelscope模型部署到PAI EAS上调试报错
根据这个文档来进行EAS模型部署的: https://www.modelscope.cn/docs/%E9%83%A8%E7%BD%B2EAS#EAS%E6%9C%8D%E5%8A%A1%E5%89%8D%E6%8F%90%E6%9D%A1%E4%BB%B6
用 damo/nlp_structbert_sentiment-classification_chinese-ecommerce-base 这个测试模型,能够成功部署,而且在线调试也可以正常输出结果。
但是用 damo/multi-modal_team-vit-large-patch14_multi-modal-similarity 这个多模态模型部署后,在线调试报错: 400 Content-Type: text/html; charset=utf-8 Date: Wed, 26 Apr 2023 08:58:51 GMT Server: envoy Vary: Accept-Encoding X-Envoy-Upstream-Service-Time: 3 TypeError('byte indices must be integers or slices, not str')
输入是参考Modelscope的在线体验部分 ( https://modelscope.cn/models/damo/multi-modal_team-vit-large-patch14_multi-modal-similarity/summary):一只熊猫
参考回答:
检查您的模型文件和代码是否正确上传到了 EAS 服务上,并且路径设置正确。您可以通过在 EAS 服务上执行 ls 命令来查看文件是否存在,并检查路径是否正确。
检查您在 EAS 服务上安装的 Python 环境和依赖项是否与您在本地运行代码时使用的环境和依赖项相同。如果存在不同,可能会导致模型无法加载或运行。您可以在 EAS 服务上执行 pip list 命令来查看已安装的 Python 包和版本,并与您在本地运行代码时的环境进行比较。
检查您在 EAS 服务上设置的模型加载代码是否正确。您可以在 EAS 服务上尝试手动加载模型,并检查是否存在加载模型时的错误。
检查您在 EAS 服务上设置的端口号是否正确,并且在本地代码中进行了正确的配置,以便可以与模型进行通信。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/503887?spm=a2c6h.14164896.0.0.6338508ePQwQ9m
问题二:使用ModelScope官方模型demo 运行时候报错 这个怎么解决啊?
使用ModelScope官方模型demo 运行时候报错 这个怎么解决啊?
参考回答:
根据你提供的错误信息,看起来是在使用 ModelScope 官方的模型 demo 时出现了问题,提示缺少 sentencepiece 库,导致无法初始化 tokenizer。
sentencepiece 是一种开源的自然语言处理库,用于训练和使用字级别或子词级别的文本分割模型。在 Transformers 库中,sentencepiece 通常被用来作为 tokenizer 的后端,用于将原始文本分割成 token。
为了解决这个问题,你需要安装 sentencepiece 库。你可以使用以下命令来安装 sentencepiece:
pip install sentencepiece 安装完成后,再次运行 ModelScope 的模型 demo,应该就可以成功初始化 tokenizer 了。
如果你已经安装了 sentencepiece 库,但仍然出现这个错误,可能是因为 Transformers 库的版本不兼容导致的。你可以尝试升级 Transformers 库到最新版本,或者降级到与 demo 中使用的版本相同的 Transformers 版本。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/495178?spm=a2c6h.14164896.0.0.1669508erW7yXa
问题三:小白,已经按照使用文档安装了anconda和本地环境,但是具体使用模型下载library时还是报错
我使用的anaconda navigator开启vscode,用终端运行了模型提供的代码 pip install "modelscope[cv]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html 出现了以下报错 求助各位大佬该如何解决,还有最后的模型加载和推理我该如何使用?是直接将代码复制到终端运行吗?他提供的input输入该怎么用,有否详细的教程可以参考? 谢谢各位大佬
参考回答:
您好,如果您在使用阿里云计算机视觉时遇到了模型下载库的错误,可以尝试以下步骤:
- 检查您的网络连接是否正常。
- 确保您已经正确安装了Anaconda和本地环境。
- 检查您使用的pip命令是否正确。通常情况下,您需要使用pip命令安装特定的库或模型。例如,如果您需要下载某个模型,可以使用以下命令:
pip install model_name
。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/498298?spm=a2c6h.14164896.0.0.1669508erW7yXa
问题四:我ModelScope在docker ubuntu20.04, python3.7环境下测试这个?
我ModelScope在docker ubuntu20.04, python3.7环境下测试这个卡证模型,mmcv报错,初步判断是安装的版本不对。后面用 最笨的方法,降低版本安装 ,ScrfdDetect: MMCV==1.4.0 is used but incompatible. Please install mmcv>=1.2.4, <=1.3.现在改了1.2.4版本的也不行,提示其它错误
参考回答:
你好我用python3.9和mmcv1.7.1是可以跑通的。你的py37是conda环境还是官方镜像呢,我这里目前不好复现。暂时没有脚本支持,我这里有个包可以做数据处理,也可以参考下~
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/517972?spm=a2c6h.14164896.0.0.1669508erW7yXa
问题五:cpu部署报错 Torch not compiled with CUDA enabled
读光-表格结构识别-无线表格模型目前不支持纯cpu部署。 https://github.com/modelscope/modelscope/blob/master/modelscope/models/cv/table_recognition/lineless_table_process.py 该文件中包含tensor.cuda(),希望能优化后去掉该强制转化,使其支持cpu部署
参考回答:
读光-表格结构识别-无线表格模型目前不支持纯CPU部署,因为代码中包含了.cuda()函数,这个函数是将数据转移到GPU上进行计算的,如果没有GPU,则会出现错误。用户希望能优化后去掉这个强制转化,以便支持CPU部署。
针对这个问题,建议修改代码,将.cuda()函数改为.to(device)函数,其中device可以指定为CPU或GPU。这样代码就可以在CPU上运行了。同时,需要注意的是,这样修改后可能会导致模型的计算速度变慢,因为GPU通常比CPU更快。
关于本问题的更多回答可点击原文查看:https://developer.aliyun.com/ask/493137?spm=a2c6h.14164896.0.0.1669508erW7yXa