如何基于YoC播放器实时播放语音合成码流

简介: 如何基于YoC播放器实时播放语音合成码流

image.png

YoC播放器中支持的码流url类型有如下几种:

流类型 URL前缀 URL格式
http流 http(s):// http(s)://ip:port/xx.mp3
文件流 file:// file:///fatfs0/xx.mp3?avformat=%s&avcodec=%u&channel=%u&rate=%u
内存流 mem:// mem://addr=%u&size=%u&avformat=%u&avcodec=%u&channel=%u&rate=%u
fifo流 fifo:// fifo://tts/1?avformat=%s&avcodec=%u&channel=%u&rate=%u
由于fifo是基于生产者-消费者原理来实现的,我们可以基于fifo码流类型来实现实时语音合成码流播放。用户在创建fifo后,通过将fifo传递给播放器播放。与此同时可不断从网络上读取tts流,写入fifo中。

示例代码如下:
//核心代码片段
static player_t* g_player;
static nsfifo_t* g_tts_fifo;

static void _ptask(void *arg)
{

int fd;
int cnt = 0, rc, wlen;
char *val, *pos;
uint8_t reof = 0;
web_session_t *session;
/* 创建一个http会话 */
session = web_session_create();
/* 向指定地址发起http请求 */
rc = web_session_get(session, "http://www.srcbin.net/ai/result.mp3", 3);
if (rc) {
    LOGE(TAG, "web_session_get fail. rc = %d, code = %d, phrase = %s", rc, session->code, session->phrase);
    goto err;
}
/* 获取内容的长度 */
val = (char*)dict_get_val(&session->hdrs, "Content-Length");
CHECK_RET_TAG_WITH_GOTO(val != NULL, err);
fd = session->fd;
LOGD(TAG, "content len = %d", atoi(val));

for (;;) {
    /* 获取fifo的可写指针及长度 */
    wlen = nsfifo_get_wpos(g_tts_fifo, &pos, 8*1000);
    /* 获取播放器fifo读端是否退出(可能播放出错) */
    nsfifo_get_eof(g_tts_fifo, &reof, NULL);
    if (wlen <= 0 || reof) {
        LOGE(TAG, "get wpos err. wlen = %d, reof = %d", wlen, reof);
        break;
    }
    /* 从网络套接字中读取数据 */
    rc = sock_readn(fd, pos, wlen, 6*1000);
    if (rc <= 0) {
        LOGE(TAG, "readn err. rc = %d", rc);
        break;
    }
    /* 设置写指针 */
    nsfifo_set_wpos(g_tts_fifo, rc);
    cnt += rc;
}
LOGD(TAG, "rc = %8d, cnt = %8d", rc, cnt);

err:

/* 销毁web会话资源 */
web_session_destroy(session);
return;

}
/ 创建fifo,指定fifo地址和大小 /
g_tts_fifo = nsfifo_open("fifo://tts/1", O_CREAT, 64*1024);
if (g_tts_fifo) {

/* 创建 _ptask任务,用于通过网络获取码流数据 */
aos_task_new("xx_task", _ptask, NULL, 6*1024);
/* 设置播放器取流超时时间 */
player_ioctl(g_player, PLAYER_CMD_RCVTIMEO, AOS_WAIT_FOREVER);
/* 播放之前创建的fifo码流 */
player_play(g_player, "fifo://tts/1", 0);

}

相关文章
|
存储 编解码 算法
音视频之音频知识入门
信息论的观点来看,描述信源的数据是信息和数据冗余之和,即:数据=信息+数据冗余。音频信号在时域和频域上具有相关性,也即存在数据冗余。将音频作为一个信源,音频编码的实质是减少音频中的冗余。自然界中的声音非常复杂,波形极其复杂,通常我们采用的是脉冲代码调制编码,即PCM编码。PCM通过抽样、量化、编码三个步骤将连续变化的模拟信号转换为数字编码。
750 0
|
6月前
音视频播放器
音视频播放器
|
7月前
|
编解码
音视频录制播放原理
音视频录制播放原理
135 1
|
7月前
|
Windows
使用ffmpeg调用电脑自带的摄像头和扬声器录制音视频
使用ffmpeg调用电脑自带的摄像头和扬声器录制音视频
308 0
|
移动开发 编解码 缓存
【知识拓展】音视频中的推流与拉流
【知识拓展】音视频中的推流与拉流
419 1
|
存储 Cloud Native Linux
音视频 ffplay命令播放媒体
音视频 ffplay命令播放媒体
|
存储 Cloud Native Linux
音视频 ffplay播放控制
音视频 ffplay播放控制
|
存储 缓存 内存技术
音视频系列四:ffmpeg之获取音视频帧数据
音视频系列四:ffmpeg之获取音视频帧数据
630 0
音视频系列四:ffmpeg之获取音视频帧数据
|
数据采集 传感器 编解码
【Android RTMP】安卓直播推流总结 ( 直播服务器搭建 | NV21 图像采集 | H.264 视频编码 | PCM 音频采集 | AAC 音频编码 | RTMP 包封装推流 )
【Android RTMP】安卓直播推流总结 ( 直播服务器搭建 | NV21 图像采集 | H.264 视频编码 | PCM 音频采集 | AAC 音频编码 | RTMP 包封装推流 )
1532 0
【Android RTMP】安卓直播推流总结 ( 直播服务器搭建 | NV21 图像采集 | H.264 视频编码 | PCM 音频采集 | AAC 音频编码 | RTMP 包封装推流 )
|
Web App开发 Java API
浅析webrtc中音频的录制和播放流程
本文是基于PineAppRtc项目github.com/thfhongfeng… 在webrtc中音频的录制和播放都是封装在内部,一般情况下我们也不需要关注,直接使用即可。 但是最近有一个需求,需要将我们自己的数据进行传输,所以就需要将这些接口暴露出来使用。所以就需要去研究一下它的源码,就有了这篇文章。
955 0
下一篇
DataWorks