开发者社区 > ModelScope模型即服务 > 语音 > 正文

用pipeline做推理的时候,怎么让其使用GPU?

我按照官网给的案例,利用pipeline获取UniASR语音识别-中文-通用-16k-实时这个模型做推理,但是程序跑出来并没有利用GPU还依然是用的CPU,所以想问各位大佬怎么选择用GPU做pipeline的推理呢?

展开
收起
aliyun0626609716 2023-01-11 21:17:17 1350 0
2 条回答
写回答
取消 提交回答
  • 您好,pipeline是支持GPU解码的,如果有GPU,默认使用GPU计算,如果没有GPU,才会用CPU解码,针对您遇到的问题,我们怀疑是环境按照问题,请问方便提供一下具体环境细节么?环境安装,推荐先按照tensorflow-gpu或者pytorch,然后再安装modelscope。您也可以加入我们钉钉服务群(群号:27215013275),方便及时沟通您在使用pipeline过程中遇到的问题

    2023-01-12 12:40:59
    赞同 展开评论 打赏
  • 十分耕耘,一定会有一分收获!

    楼主你好,你可以在GPU上创建目标检测Pipeline管道:Creating an Object Detection Pipeline for GPUs,试一下

    2023-01-12 09:56:08
    赞同 展开评论 打赏

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

相关电子书

更多
DeepStream: GPU加速海量视频数据智能处理 立即下载
阿里巴巴高性能GPU架构与应用 立即下载
GPU在超大规模深度学习中的发展和应用 立即下载