暂无个人介绍
2022年12月
2022年11月
这个问题已经在群里解答过了。一个干净的环境就没有问题的。建议python还是用venv来隔离运行环境。
谢谢反馈。这个问题已经在代码层面修复,下个版本发布能带上,敬请期待
您好,目前该模型已经不需要此依赖。请忽略此要求。对应模型的介绍页面已经更新,去除了下载要求。
您的网络确定是通的吗?
直接wget https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html 能下载吗?
您好。目前modelscope的library sdk都是完全开放的。您可以在下载模型到本地离线使用。
另外library sdk本身的代码也是开源的 https://github.com/modelscope/modelscope
感谢关注
您好。对于通用模型如何训练(包括数据特性等等)在各自模型的介绍页面都有提供。关于深度学习模型的可解释性,这是个业界都关注的研究方向,我们也会持续在这方面投入研究。
您可以看一下这个模型:
https://www.modelscope.cn/models/damo/cv_resnet50_video-category/summary
另外之前的开发者评测局里的一个评测报告: https://developer.aliyun.com/article/1007722
您直接安装语音依赖就可以
pip install "modelscope[audio]" -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
如果要单独安装ttsfrd,也可以试一下 pip install ttsfrd -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html
modelsecope部署到eas到文档在这里可以找到:
https://www.modelscope.cn/docs/%E9%83%A8%E7%BD%B2EAS
eas需要的access key怎么获取目前可以参考eas的文档。
能提供一下更多背景吗?您是在使用什么模型的时候遇到这个问题的 ?
您好,ModelScope上每个模型卡片上都有模型介绍,以及相关paper的reference。
https://www.modelscope.cn/models/damo/cv_vitb_video-single-object-tracking_ostrack/summary
您可以先参考一下。
yy一下,这个把asr模型和文本生成图像模型串接起来,就能有个prototype了,欢迎你来尝试
ʅ(‾◡◝)ʃ
modelscope library本身就是可以被集成的。“每条执行好像挺慢的”具体指的是什么?能展开说说吗
如果是之前已经安装过的,可以试一下升级到最新版本。
pip install "modelscope[nlp]" --upgrade -f https://modelscope.oss-cn-beijing.aliyuncs.com/releases/repo.html