开发者社区> 问答> 正文

请问适合什么方案?

已解决

我们的设备属于linux嵌入式平台。目前的主控芯片(armv9)自带一套语音编解码处理。所以,我们想找一种,我们可以自己开发的ASR接口来自己控制我们的设备。目前先从本地端做起,后面也会做云端。设备是在线使用的。请问适合什么方案?

展开
收起
冰激凌甜筒 2023-04-04 17:16:45 236 0
1 条回答
写回答
取消 提交回答
  • 推荐回答

    根据您提供的信息,您的设备是基于Linux嵌入式平台 (armv9主控芯片),并且希望使用自研的ASR接口来控制设备。考虑到设备在线使用且当前阶段先从本地端开发做起,后续会扩展到云端,以下是一种可能的方案:

    1. 本地端ASR集成:
      使用开源或商业的语音识别引擎,如Kaldi、Deepspeech等,这些引擎通常提供灵活的A尸供开发者进行定制和集成。
      结合您设备自带的语音编解码能力,将音频数据按照所选ASR引擎要求的格式进行预处理,并通过引擎提供的接口进行语音转文字识别。
    2. 云端ASR服务:
      阿里云提供了多种语音识别服务,例如智能语音交互服务 (Interactive Voice Response, IVR) 和语音识别 (Automatic Speech Recognition, ASR) 服务。
      当需要扩展到云端时,可以采用阿里云的ASR SDK,针对Linux环境,可以选择对应的SDK版本(如C++或Java SDK),并按照官方文档配置访问凭证和服务调用参数。
      在本地设备上实现与云端ASR服务的通信模块,将本地采集的音频数据发送至云端进行识别,并接收云端返回的识别结果。
      综上所述,您可以首先在本地端集成一个适合嵌入式环境的轻量级ASR引擎进行初步开发,待成熟后,再对接阿里云云端ASR服务以实现更强大的语音识别功能和更好的用户体验。同时,请确保遵守相关服务的使用协议和安全规范。
    2024-01-04 15:11:40
    赞同 展开评论 打赏
问答地址:
问答排行榜
最热
最新

相关电子书

更多
低代码开发师(初级)实战教程 立即下载
冬季实战营第三期:MySQL数据库进阶实战 立即下载
阿里巴巴DevOps 最佳实践手册 立即下载