产品
解决方案
文档与社区
权益中心
定价
云市场
合作伙伴
支持与服务
了解阿里云
备案
控制台
开发者社区
首页
计算机视觉
自然语言处理
语音
多模态
科学计算
魔搭社区官网
探索云世界
新手上云
云上应用构建
云上数据管理
云上探索人工智能
云计算
弹性计算
无影
存储
网络
倚天
云原生
容器
serverless
中间件
微服务
可观测
消息队列
数据库
关系型数据库
NoSQL数据库
数据仓库
数据管理工具
PolarDB开源
向量数据库
热门
Modelscope模型即服务
弹性计算
云原生
数据库
物联网
云效DevOps
龙蜥操作系统
平头哥
钉钉开放平台
大数据
大数据计算
实时数仓Hologres
实时计算Flink
E-MapReduce
DataWorks
Elasticsearch
机器学习平台PAI
智能搜索推荐
人工智能
机器学习平台PAI
视觉智能开放平台
智能语音交互
自然语言处理
多模态模型
pythonsdk
通用模型
开发与运维
云效DevOps
钉钉宜搭
支持服务
镜像站
码上公益
开发者社区
>
ModelScope模型即服务
>
语音
>
正文
本地用模型需要gpu吗
本地用模型需要gpu吗
展开
收起
Paraformer语音识别-中文-通用-16k-离线-large-pytorch
向量检索服务DashVector
2023-03-01 14:12:10
760
0
1
条回答
写回答
取消
提交回答
ModelScope小助手
本地可以使用GPU也可以使用CPU
2023-03-02 17:33:53
赞同
展开评论
打赏
相关问答
语音
1、通过CPU计算,联邦计算也不会节省时间,对于大模型性能会不会很差,后续会不会支持高性能GPU计算
5
2
0
用模型卡片 可以跑单gpu 用ModelScope类库 跑不起来呢?
13
1
0
modelscope-funasr导出的onnx离线paraformer模型能用gpu推理吗?
45
0
0
函数计算FC部署的sd不使用会消耗模型加载的gpu吗?
14
1
0
modelscope用swift微调加载微调后的模型,设置哪些参数能增加GPU、CPU的效率?
20
1
0
ModelScope中我们的ASR模型和TTS模型,可以使用GPU吗?
26
1
0
无法将ModelScope模型在GPU上推理,有解决方法吗?
27
5
0
设置也无法指定gpu,是否在ModelScope模型内部修改代码?
30
2
0
ModelScope模型如何指定gpu运行呢?
32
2
0
千问1.5 72B AWQ的量化模型无法使用多个GPU
50
0
0
ModelScope模型即服务
语音
包括语音识别、语音合成、语音唤醒、声学设计及信号处理、声纹识别、音频事件检测等多个领域
我要提问
热门讨论
热门文章
KeyError: 'asr-inference is not in the pipelines r
952
kantts 这个模型是什么东西啊,运行会报错
1473
modelscope上跑报错,提示要pip install ttsfrd,搞不定
5683
在Windows平台上关于 ModelScorpe Audio 安装涉及 kwsbp 的问题
144
怎么使用微调后的模型经行推理?语音识别模型
811
关于 Windows平台上 ttsfrd 库的问题。
272
魔搭modelscope按官方文档安装音频环境失败
264
linux系统运行TTS语音合成报错 Could not initialize NNPACK
470
关于 modelscope-funasr 报错的问题。
714
有没有java语音实时识别的demo
256
展开全部
使用开源的模型(像speech_sambert-hifigan_tts_zhida_zh-cn_16k)进行语音合成任务的推理时,推理速度太慢了,500字大约需要1分钟,为什么会这么慢
297
ModelScope官方镜像,CPU环境镜像(python3.8)pull不存在
425
智能降噪
926
同一个语音为什么识别结果还不一致的,有大佬知道原因吗(Paraformer语音识别-中文-通用-16k-离线-large-热词版)
163
语音识别
572
KAN-TTS 在 conda 环境下无法安装 ttsfrd
935
展开全部
相关文章
LabVIEW轨道交通列车牵引制动试验平台
LabVIEW压电驱动迟滞补偿控制
You Only Cache Once:YOCO 基于Decoder-Decoder 的一个新的大语言模型架构
论文介绍:Mamba:线性时间序列建模与选择性状态空间
LabVIEW多通道数据采集系统
相关电子书
更多
DeepStream: GPU加速海量视频数据智能处理
立即下载
阿里巴巴高性能GPU架构与应用
立即下载
GPU在超大规模深度学习中的发展和应用
立即下载
相关实验场景
更多
通过GPU云服务器训练GPT-2
45
1.0小时
去实验
通过GPU云服务器生成AIGC 3D模型
54
1.0小时
去实验
云原生AI套件:一键训练大模型及部署GPU共享推理服务
237
1.0小时
去实验
在云上部署ChatGLM2-6B大模型(GPU版)
946
1.0小时
去实验
部署Stable Diffusion玩转AI绘画(GPU云服务器)
4017
1.0小时
去实验