ModelScope中目前本地tf2加cuda11的环境。人像卡通的模型,是不是每次调用pipeline都要重新加载一次,很费时,能不能预加载然后批量处理生成呢?另外有两块gpu的话怎么调用呀?
pip_ins=Pipeline(Tasks.image_cartoon)就加载好了模型。 后面result= pip_ins("image_url")就是推理forward不会重复加载。Batch inference 目前正在继承,后续会提供 集成。此答案整理自钉钉群“ModelScope开发者联盟群 ①”
版权声明:本文内容由阿里云实名注册用户自发贡献,版权归原作者所有,阿里云开发者社区不拥有其著作权,亦不承担相应法律责任。具体规则请查看《阿里云开发者社区用户服务协议》和《阿里云开发者社区知识产权保护指引》。如果您发现本社区中有涉嫌抄袭的内容,填写侵权投诉表单进行举报,一经查实,本社区将立刻删除涉嫌侵权内容。