开发者社区 > ModelScope模型即服务 > 自然语言处理 > 正文

funasr + torchrun 多卡分布式推理的时候,有人遇到每张卡加载模型的速度差异很大吗?

funasr + torchrun 多卡分布式推理的时候,有人遇到每张卡加载模型的速度差异很大吗?比如 librispeech,均分到8张卡,7张卡都推理结束了,第8张卡的模型还没加载上去?推理的模型是 sensevoice

展开
收起
三分钟热度的鱼 2024-07-11 08:50:50 52 0
1 条回答
写回答
取消 提交回答
  • 我觉着你的问题与funasr无关,比如,是不是你包的外围逻辑里面,没加dist.barrier(),可以去阅读一下,torchrun ddp文档。 此回答整理自钉群“modelscope-funasr社区交流”

    2024-07-11 08:58:18
    赞同 12 展开评论 打赏

包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域

热门讨论

热门文章

相关电子书

更多
基于社区的分布式 风险感知模型 立即下载
如何利用Redisson分布式化传统Web项目 立即下载
FLASH:大规模分布式图计算引擎及应用 立即下载

相关实验场景

更多