开发者社区 > ModelScope模型即服务 > 语音 > 正文

尝试快速体验语音模型推理报GPU的错

image.png

展开
收起
llw1309254902 2023-02-24 16:06:35 536 0
2 条回答
写回答
取消 提交回答
  • 发表文章、提出问题、分享经验、结交志同道合的朋友

    可以通过修改代码的配置来强制使用CPU进行推理。

    比如使用 TensorFlow 时,可以在代码中设置os.environ['CUDA_VISIBLE_DEVICES'] = '-1',这样 TensorFlow 会强制使用 CPU 进行计算

    2023-02-24 16:53:09
    赞同 1 展开评论 打赏
  • 有没有大哥知道啊 用有GPU的实例可以跑 但是用cpu实例就报这个错 怎么调成默认使用cpu推理

    2023-02-24 16:16:20
    赞同 展开评论 打赏

包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域

相关电子书

更多
DeepStream: GPU加速海量视频数据智能处理 立即下载
阿里巴巴高性能GPU架构与应用 立即下载
GPU在超大规模深度学习中的发展和应用 立即下载