产品
解决方案
文档与社区
权益中心
定价
云市场
合作伙伴
支持与服务
了解阿里云
AI 助理
备案
控制台
开发者社区
首页
计算机视觉
自然语言处理
语音
多模态
科学计算
魔搭社区官网
探索云世界
新手上云
云上应用构建
云上数据管理
云上探索人工智能
云计算
弹性计算
无影
存储
网络
倚天
云原生
容器
serverless
中间件
微服务
可观测
消息队列
数据库
关系型数据库
NoSQL数据库
数据仓库
数据管理工具
PolarDB开源
向量数据库
热门
百炼大模型
Modelscope模型即服务
弹性计算
云原生
数据库
云效DevOps
龙蜥操作系统
平头哥
钉钉开放平台
物联网
大数据
大数据计算
实时数仓Hologres
实时计算Flink
E-MapReduce
DataWorks
Elasticsearch
机器学习平台PAI
智能搜索推荐
数据可视化DataV
人工智能
机器学习平台PAI
视觉智能开放平台
智能语音交互
自然语言处理
多模态模型
pythonsdk
通用模型
开发与运维
云效DevOps
钉钉宜搭
支持服务
镜像站
码上公益
开发者社区
>
ModelScope模型即服务
>
自然语言处理
>
正文
funasr的gpu的offline模式支持分角色模型吗?
funasr的gpu的offline模式支持分角色模型吗?看文档好像没有配置的地方
展开
收起
三分钟热度的鱼
2024-08-07 20:42:22
25
0
0
条回答
写回答
取消
提交回答
相关问答
求助,人工智能平台 PAI-DSW运行模型时,找不到 GPU
24
0
0
modelscope-funasr怎么设置使得模型可以用CUDA0以外的其他gpu?
65
1
0
modelscope-funasr目前只能用给的两个paraformer模型吗?
33
0
0
modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的参数量是一样的么?
31
0
0
modelscope-funasr最新的gpu高吞吐服务用的模型和原来cpu的是一样的么?
36
0
0
在modelscope-funasr中funasr 中文实时的可以gpu部署吗?
39
0
0
ModelScope没有看见复制,模型选择、cpu/GPU选择有特别要求吗,有详细说明吗?
38
1
0
modelscope-funasr使用gpu转写服务部署指南,asr模型还是会需要导出为onnx吗?
32
0
0
funasr gpu版本有没有中文实时的可执行脚本? cpu还是有点慢
21
0
0
modelscope-funasr的这个gpu模型有没有onnx的?
28
1
0
ModelScope模型即服务
自然语言处理
包含命名实体识别、文本分类、分词、关系抽取、问答、推理、文本摘要、情感分析、机器翻译等多个领域
我要提问
热门讨论
热门文章
modelscope-funasr的FunClip怎么安装的?
1399
小白求助,跟着大模型微调教程做不太明白
341
open webui的RAG功能根本用不起来
825
modelscope-funasr启动ASR服务的时候一直在提示ssl证书错误是咋回事?
153
练的pth模型文件,怎么转成bin文件?
797
如何下载llama模型到本地?
2713
请问微调开元模型qwe1.5b 和 7b 分别支持数据集的上下文长度是多少个汉字/token?
1052
无法从tokenizer.model解析解析ModelProto
294
modelscope-funasr怎么使用 gpu 加速啊?
416
我使用modelscope进行语音识别时很慢。
130
展开全部
智胜未来:国内大模型+Agent应用案例精选,以及主流Agent框架开源项目推荐
1012
【AI 技术分享】大模型与数据检索的探索实践
101
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
31
RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow、Anything-LLM,以及更多推荐
548
告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验
285
2024年6月118篇代码大模型论文最全整理
575
ModelScope X 昇腾910快速上手
482
RAG:AI大模型联合向量数据库和 Llama-index,助力检索增强生成技术
580
LLM 大模型学习必知必会系列(一):大模型基础知识篇
1261
检索增强生成(RAG)实践:基于LlamaIndex和Qwen1.5搭建智能问答系统
1009
展开全部
相关课程
更多
云原生AI套件:一键训练大模型及部署GPU共享推理服务
73
1
去学习
相关文章
提高 PyTorch 性能
【通义】AI视界|谷歌 Tensor G5 芯片揭秘:1+5+2 八核 CPU,支持光线追踪
将 Spring AI 与 LLM 结合使用以生成 Java 测试
亚太唯一!阿里云再度入选Gartner®容器管理魔力象限领导者
LLM-Mixer: 融合多尺度时间序列分解与预训练模型,可以精准捕捉短期波动与长期趋势
相关电子书
更多
DeepStream: GPU加速海量视频数据智能处理
立即下载
阿里巴巴高性能GPU架构与应用
立即下载
GPU在超大规模深度学习中的发展和应用
立即下载
相关实验场景
更多
部署Stable Diffusion玩转AI绘画(GPU云服务器)
4305
1.0小时
去实验
在云上部署ChatGLM2-6B大模型(GPU版)
1192
1.0小时
去实验
通过GPU云服务器生成AIGC 3D模型
130
1.0小时
去实验
通过GPU云服务器训练GPT-2
117
1.0小时
去实验
在云上部署ChatGLM2-6B大模型(GPU版)
125
3.0小时
去实验