开源上新|FunASR离线文件转写GPU软件包1.0

简介: 开源上新|FunASR离线文件转写GPU软件包1.0

本文来源:阿里云语音AI


FunASR是由通义实验室开源的语音识别框架,集成了语音端点检测、语音识别、标点预测等领域的工业级模型的训练和部署,自开源以来,吸引了众多开发者参与体验和开发。为了支持用户便捷高效的集成语音AI能力,本次推出离线文件转写GPU软件包1.0,支持GPU部署,在长音频测试集上RTF为0.0076,吞吐为1200+。

(图1 FunASR社区软件包发布路线图)


FunASR社区软件包地址👇:


https://github.com/modelscope/FunASR/blob/main/runtime/readme_cn.md


离线文件转写GPU软件包1.0

(图2 FunASR离线文件转写GPU1.0 服务架构图)


如图所示,声学模型Paraformer运行在GPU上,其它模块如VAD、PUNC等运行在CPU上(相比于声学模型,其它模型整体耗时占比小,GPU加速带来的提升不明显)。离线文件转写GPU1.0 支持多路并行,GPU1.0 为了减少Padding带来的冗余计算,会对VAD语音段进行排序,同时为了提升显存使用率,采用动态组batch的方法。


目前GPU1.0 只支持单路间数据组batch,后续版本会支持多路间数据组batch,进一步提升计算效率。


测试结果


我们采用长音频测试集测试了软件包在GPU A10上的吞吐率,即每小时可以推理多少小时音频。

不同配置下的详细吞吐率指标如下表:

image.png

表2 离线文件转写1.0 GPU推理效率测试



结论:作为非自回归模型,Paraformer具有更强的推理效率优势,同时我们通过bladedisc对模型推理进行加速,使得Paraformer在GPU上取得了极致的效率;GPU单路实时率为0.0076,GPU多路并发时吞吐率可达到1200+。


使用指南


精简操作,即刻安装!FunASR软件包当前已开源。


开源软件包包地址👇:


https://github.com/modelscope/FunASR/blob/main/runtime/readme_cn.md


>>>步骤如下:


第零步:docker安装(可选)


# 如果您已安装docker,忽略本步骤
curl -O https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/shell/install_docker.sh;
sudo bash install_docker.sh


第一步:镜像启动


sudo docker pull \
  registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-gpu-0.1.1
mkdir -p ./funasr-runtime-resources/models
sudo docker run --gpus=all -p 10095:10095 -it --privileged=true \
  -v $PWD/funasr-runtime-resources/models:/workspace/models \
  registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-gpu-0.1.1


第二步:服务端启动


cd FunASR/runtime; nohup bash run_server.sh > log.out 2>&1 &


第三步:测试与使用


等待服务端启动后,可以用客户端进行测试,支持python/c++/java/html网页等语言。支持多种音频格式输入(.wav, .pcm, .mp3等),也支持视频输入(.mp4等)。


客户端下载地址👇:

https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/sample/funasr_samples.tar.gz


我们以html网页版本client为例,进行说明:在浏览器中打开samples/html/static/index.html,出现如下页面,输入部署服务器ip与端口号后,可以直接进行体验。

image.svg

(图5 html网页客户端体验)


同时我们在云端部署了FunASR离线文件转写服务,用户可以直接在浏览器中进行体验:

https://www.funasr.com/#/


相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
3月前
|
人工智能 语音技术 UED
仅用4块GPU、不到3天训练出开源版GPT-4o,这是国内团队最新研究
【10月更文挑战第19天】中国科学院计算技术研究所提出了一种名为LLaMA-Omni的新型模型架构,实现与大型语言模型(LLMs)的低延迟、高质量语音交互。该模型集成了预训练的语音编码器、语音适配器、LLM和流式语音解码器,能够在不进行语音转录的情况下直接生成文本和语音响应,显著提升了用户体验。实验结果显示,LLaMA-Omni的响应延迟低至226ms,具有创新性和实用性。
82 1
|
4月前
|
人工智能 自然语言处理 文字识别
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
在7月4日举行的WAIC 2024科学前沿主论坛上,书生·浦语2.5正式发布,面向大模型研发与应用的全链条工具体系同时迎来升级。
MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
|
存储 机器学习/深度学习 缓存
阿里云PAIx达摩院GraphScope开源基于PyTorch的GPU加速分布式GNN框架
阿里云机器学习平台 PAI 团队和达摩院 GraphScope 团队联合推出了面向 PyTorch 的 GPU 加速分布式 GNN 框架 GraphLearn-for-PyTorch(GLT) 。
阿里云PAIx达摩院GraphScope开源基于PyTorch的GPU加速分布式GNN框架
|
缓存 人工智能 并行计算
小羊驼背后的英雄,伯克利开源LLM推理与服务库:GPU减半、吞吐数十倍猛增
小羊驼背后的英雄,伯克利开源LLM推理与服务库:GPU减半、吞吐数十倍猛增
510 0
|
机器学习/深度学习 人工智能 物联网
Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源
Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源
|
测试技术 异构计算
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(2)
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3
165 0
|
机器学习/深度学习 人工智能 测试技术
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(1)
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3
165 0
|
机器学习/深度学习 人工智能 测试技术
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3
这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3
191 0
|
人工智能 自然语言处理 计算机视觉
消费级GPU可用,文本转图像开源新模型Stable Diffusion生成宇宙变迁大片
消费级GPU可用,文本转图像开源新模型Stable Diffusion生成宇宙变迁大片
155 0
|
Web App开发 机器学习/深度学习 物联网
ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型
ChatGPT平替「小羊驼」Mac可跑!2行代码单GPU,UC伯克利再发70亿参数开源模型
387 0