docker 下部署 纯CPU的Nway ASR & TTS

简介: 本方案提供基于Docker的纯CPU版Nway语音识别(ASR)与合成(TTS)一体化部署:含定制Dockerfile、多服务启停脚本及Flask HTTP网关,支持RESTful API调用,开箱即用,无需GPU,适配x86 CPU环境。(239字)

docker 下部署 纯CPU的Nway ASR & TTS

首先先下载包

需要包私我

将下载的包解压,进入目录创建下面三个相关文件
1、准备下面三个文件
准备Dockerfile

FROM ubuntu:22.04
# 设置非交互式安装
ENV DEBIAN_FRONTEND=noninteractive

RUN apt-get update && apt-get install -y \
    ca-certificates \
    libgcc-s1 \
    python3 \
    python3-pip \
    python3-venv \
    net-tools \
    && rm -rf /var/lib/apt/lists/*
# 设置工作目录
WORKDIR /app
# 复制应用程序文件
COPY . .
# 安装Python依赖(添加requests)
RUN pip3 install flask werkzeug requests
# 设置权限
RUN chmod +x nasr-server nasr-client ntts-server ntts-client start_services.sh
# 设置环境变量
ENV LD_LIBRARY_PATH=/app
ENV PYTHONPATH=/app

EXPOSE 8089 8090 8080
# 健康检查
HEALTHCHECK --interval=30s --timeout=10s --start-period=30s --retries=3 \
    CMD netstat -tuln | grep -q -E ':(8089|8090|8080)' || exit 1

CMD ["./start_services.sh"]

2、启动脚本

#!/bin/bash

echo "=== 启动脚本开始 ==="
echo "当前目录: $(pwd)"
echo "文件列表:"
ls -la

echo "=== 检查可执行文件 ==="
file nasr-server ntts-server

echo "=== 设置环境变量 ==="
export LD_LIBRARY_PATH=/app
echo "LD_LIBRARY_PATH: $LD_LIBRARY_PATH"

echo "=== 启动ASR服务 ==="
./nasr-server &
ASR_PID=$!
echo "ASR服务PID: $ASR_PID"

echo "=== 启动TTS服务 ==="  
./ntts-server &
TTS_PID=$!
echo "TTS服务PID: $TTS_PID"

echo "=== 等待服务启动 ==="
sleep 5

echo "=== 检查端口监听 ==="
netstat -tuln | grep -E ':(8089|8090)'

echo "=== 启动HTTP网关 ==="
python3 http_gateway.py &
GATEWAY_PID=$!
echo "HTTP网关PID: $GATEWAY_PID"

echo "=== 最终端口检查 ==="
sleep 3
netstat -tuln | grep -E ':(8089|8090|8080)'

echo "=== 所有服务已启动 ==="

# 等待服务运行
wait

3、python 应用

from flask import Flask, request, jsonify, send_file
import requests
import os
import tempfile
import uuid
from werkzeug.utils import secure_filename

app = Flask(__name__)

# 服务配置
ASR_SERVER = "http://localhost:8089"
TTS_SERVER = "http://localhost:8090"

@app.route('/api/health', methods=['GET'])
def health_check():
    """健康检查接口"""
    return jsonify({
   
        "status": "healthy",
        "services": {
   
            "asr": "running",
            "tts": "running"
        }
    })

@app.route('/api/asr/transcribe', methods=['POST'])
def transcribe_audio():
    """语音识别接口"""
    if 'audio' not in request.files:
        return jsonify({
   "error": "No audio file provided"}), 400

    audio_file = request.files['audio']

    # 保存临时文件
    temp_dir = tempfile.gettempdir()
    filename = secure_filename(f"{uuid.uuid4()}.wav")
    filepath = os.path.join(temp_dir, filename)
    audio_file.save(filepath)

    try:
        # 调用ASR服务
        result = os.popen(f"./nasr-client 127.0.0.1:8089 {filepath}").read().strip()

        return jsonify({
   
            "text": result,
            "status": "success"
        })
    except Exception as e:
        return jsonify({
   "error": str(e)}), 500
    finally:
        # 清理临时文件
        if os.path.exists(filepath):
            os.remove(filepath)

@app.route('/api/tts/synthesize', methods=['POST'])
def synthesize_speech():
    """语音合成接口"""
    data = request.get_json()
    if not data or 'text' not in data:
        return jsonify({
   "error": "No text provided"}), 400

    text = data['text']
    output_filename = data.get('filename', f"{uuid.uuid4()}.wav")

    try:
        # 调用TTS服务
        output_path = f"/tmp/{output_filename}"
        command = f'./ntts-client 127.0.0.1:8090 --input "{text}" --output {output_path}'
        os.system(command)

        if os.path.exists(output_path):
            return send_file(output_path, as_attachment=True, download_name=output_filename)
        else:
            return jsonify({
   "error": "TTS synthesis failed"}), 500

    except Exception as e:
        return jsonify({
   "error": str(e)}), 500

@app.route('/api/tts/synthesize_base64', methods=['POST'])
def synthesize_speech_base64():
    """语音合成接口(返回base64)"""
    import base64

    data = request.get_json()
    if not data or 'text' not in data:
        return jsonify({
   "error": "No text provided"}), 400

    text = data['text']

    try:
        # 调用TTS服务
        temp_file = f"/tmp/{uuid.uuid4()}.wav"
        command = f'./ntts-client 127.0.0.1:8090 --input "{text}" --output {temp_file}'
        os.system(command)

        if os.path.exists(temp_file):
            with open(temp_file, 'rb') as f:
                audio_data = f.read()
            os.remove(temp_file)

            return jsonify({
   
                "audio_base64": base64.b64encode(audio_data).decode('utf-8'),
                "status": "success"
            })
        else:
            return jsonify({
   "error": "TTS synthesis failed"}), 500

    except Exception as e:
        return jsonify({
   "error": str(e)}), 500

if __name__ == '__main__':
    app.run(host='0.0.0.0', port=8080, debug=False)

4、构建并运行容器

# 构建镜像
docker build -t nway-audio-ai .

# 运行新容器
docker run -d \
  -p 8080:8080 \
  -p 8089:8089 \
  -p 8090:8090 \
  --name nway-audio-ai \
  nway-audio-ai
# 查看日志
docker logs -f nway-audio-ai
最后测试:
# 测试HTTP网关
curl http://localhost:8080/api/health

# 测试ASR服务
curl -X POST http://localhost:8080/api/asr/transcribe \
  -F "audio=@test.wav"

# 测试TTS服务
curl -X POST http://localhost:8080/api/tts/synthesize \
  -H "Content-Type: application/json" \
  -d '{"text": "测试语音合成"}'

docker 下部署 纯CPU的Nway ASR & TTS 到此结束!

目录
相关文章
|
14天前
|
人工智能 自然语言处理 Shell
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
本教程指导用户在开源AI助手Clawdbot中集成阿里云百炼API,涵盖安装Clawdbot、获取百炼API Key、配置环境变量与模型参数、验证调用等完整流程,支持Qwen3-max thinking (Qwen3-Max-2026-01-23)/Qwen - Plus等主流模型,助力本地化智能自动化。
27990 100
🦞 如何在 OpenClaw (Clawdbot/Moltbot) 配置阿里云百炼 API
|
9天前
|
人工智能 安全 机器人
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI助手,支持钉钉、飞书等多平台接入。本教程手把手指导Linux下部署与钉钉机器人对接,涵盖环境配置、模型选择(如Qwen)、权限设置及调试,助你快速打造私有、安全、高权限的专属AI助理。(239字)
5337 14
OpenClaw(原 Clawdbot)钉钉对接保姆级教程 手把手教你打造自己的 AI 助手
|
8天前
|
人工智能 机器人 Linux
OpenClaw(Clawdbot、Moltbot)汉化版部署教程指南(零门槛)
OpenClaw作为2026年GitHub上增长最快的开源项目之一,一周内Stars从7800飙升至12万+,其核心优势在于打破传统聊天机器人的局限,能真正执行读写文件、运行脚本、浏览器自动化等实操任务。但原版全英文界面对中文用户存在上手门槛,汉化版通过覆盖命令行(CLI)与网页控制台(Dashboard)核心模块,解决了语言障碍,同时保持与官方版本的实时同步,确保新功能最快1小时内可用。本文将详细拆解汉化版OpenClaw的搭建流程,涵盖本地安装、Docker部署、服务器远程访问等场景,同时提供环境适配、问题排查与国内应用集成方案,助力中文用户高效搭建专属AI助手。
3861 8
|
10天前
|
人工智能 机器人 Linux
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
OpenClaw(原Clawdbot)是一款开源本地AI智能体,支持飞书等多平台对接。本教程手把手教你Linux下部署,实现数据私有、系统控制、网页浏览与代码编写,全程保姆级操作,240字内搞定专属AI助手搭建!
5077 17
保姆级 OpenClaw (原 Clawdbot)飞书对接教程 手把手教你搭建 AI 助手
|
3天前
|
应用服务中间件 API 网络安全
3分钟汉化OpenClaw,使用Docker快速部署启动OpenClaw(Clawdbot)教程
2026年全新推出的OpenClaw汉化版,是基于Claude API开发的智能对话系统本土化优化版本,解决了原版英文界面的使用壁垒,实现了界面、文档、指令的全中文适配。该版本采用Docker容器化部署方案,开箱即用,支持Linux、macOS、Windows全平台运行,适配个人、企业、生产等多种使用场景,同时具备灵活的配置选项和强大的扩展能力。本文将从项目简介、部署前准备、快速部署、详细配置、问题排查、监控维护等方面,提供完整的部署与使用指南,文中包含实操代码命令,确保不同技术水平的用户都能快速落地使用。
2370 0
|
10天前
|
存储 人工智能 机器人
OpenClaw是什么?阿里云OpenClaw(原Clawdbot/Moltbot)一键部署官方教程参考
OpenClaw是什么?OpenClaw(原Clawdbot/Moltbot)是一款实用的个人AI助理,能够24小时响应指令并执行任务,如处理文件、查询信息、自动化协同等。阿里云推出的OpenClaw一键部署方案,简化了复杂配置流程,用户无需专业技术储备,即可快速在轻量应用服务器上启用该服务,打造专属AI助理。本文将详细拆解部署全流程、进阶功能配置及常见问题解决方案,确保不改变原意且无营销表述。
5495 5
|
12天前
|
人工智能 JavaScript 应用服务中间件
零门槛部署本地AI助手:Windows系统Moltbot(Clawdbot)保姆级教程
Moltbot(原Clawdbot)是一款功能全面的智能体AI助手,不仅能通过聊天互动响应需求,还具备“动手”和“跑腿”能力——“手”可读写本地文件、执行代码、操控命令行,“脚”能联网搜索、访问网页并分析内容,“大脑”则可接入Qwen、OpenAI等云端API,或利用本地GPU运行模型。本教程专为Windows系统用户打造,从环境搭建到问题排查,详细拆解全流程,即使无技术基础也能顺利部署本地AI助理。
7425 16
|
12天前
|
人工智能 JavaScript API
零门槛部署本地 AI 助手:Clawdbot/Meltbot 部署深度保姆级教程
Clawdbot(Moltbot)是一款智能体AI助手,具备“手”(读写文件、执行代码)、“脚”(联网搜索、分析网页)和“脑”(接入Qwen/OpenAI等API或本地GPU模型)。本指南详解Windows下从Node.js环境搭建、一键安装到Token配置的全流程,助你快速部署本地AI助理。(239字)
5051 22