URO-Bench:端到端语音对话模型评测黑马!多语言/多轮/副语言全维度一键开测

简介: URO-Bench 是一款专为端到端语音对话模型设计的全面基准测试工具,涵盖多语言、多轮对话、副语言信息等多维度任务,帮助开发者全面评估模型性能。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦


🎙️ "语音模型还在跑单任务?这个评测神器让AI对话听懂情绪、玩转多语言!"

大家好,我是蚝油菜花。你是否正在为这些问题头疼——

  • 👉 自研语音模型在中文场景表现优秀,但一遇多语言对话就「智商掉线」
  • 👉 测试多轮对话时,模型总是忘记三句话前的关键信息
  • 👉 想评估语音情感理解能力,却找不到权威评测标准...

今天要揭秘的 URO-Bench ,正在重新定义语音对话模型评测!这个由顶尖实验室打造的开源基准平台,覆盖16+基础任务与20+高阶挑战,从多语言问答到语音情感生成,从代码切换对话到道德推理,用「全维度压力测试」暴露出模型真实能力边界。已有团队用它3天定位出模型在多轮对话中的记忆缺陷——你的语音助手准备好迎接终极考验了吗?

🚀 快速阅读

URO-Bench 是一款专为端到端语音对话模型设计的基准测试工具。

  1. 核心功能:涵盖多语言、多轮对话、副语言信息等多维度任务,支持基础赛道和高级赛道。
  2. 技术原理:基于先进的语音合成(TTS)、语音识别(ASR)和情感识别技术,全面评估模型性能。

URO-Bench 是什么

URO-Bench

URO-Bench 是一款面向端到端语音对话模型(SDMs)的全面基准测试工具。它涵盖了多语言、多轮对话、副语言信息等多维度任务,旨在全面评估语音对话模型的性能。基准测试分为基础赛道和高级赛道,基础赛道包含16个数据集,涉及开放性问答、事实问答等任务;高级赛道则包含20个数据集,涵盖代码切换问答、语音情感生成、多语言问答等更复杂的任务。

URO-Bench 的设计目标是帮助开发者全面了解模型在不同任务中的表现,从而优化模型性能。通过提供多指标评估和参考模型,URO-Bench 为语音对话模型的研究和开发提供了强有力的支持。

URO-Bench 的主要功能

  • 多语言支持:涵盖多种语言,包括英语和中文,支持跨语言对话任务。
  • 多轮对话评估:包含多轮对话任务,评估模型在连续对话中的表现能力。
  • 副语言信息评估:涉及语音情感理解、语音风格生成等副语言信息相关任务,更贴近真实语音交互场景。
  • 基础赛道(Basic Track):包含16个数据集,涵盖开放性问答、道德总结、事实问答、数学应用题等多种任务类型。
  • 高级赛道(Pro Track):包含20个数据集,涉及代码切换问答、语音情感生成、多语言问答、音频理解等更高级的任务。
  • 四步评估流程:用户只需通过修改推理代码、配置脚本、运行自动评估管道等简单步骤,可快速获得模型在所有测试集上的结果。
  • 多指标评估:通过多种指标(如 UTMOS、ASR-WER、情感理解准确率等)全面评估模型在语音理解、推理和口语对话方面的能力。
  • 通用性:支持多种端到端语音对话模型,用户可以将自己的模型接入 URO-Bench 进行评估。
  • 参考模型:提供了一些预训练模型(如 Whisper + GPT-4o、GLM-4-Voice 等)的评估结果作为参考。

URO-Bench 的技术原理

  • 语音合成(TTS):使用先进的TTS系统(如F5-TTS、CosyVoice)将文本数据转换为语音数据。
  • 语音识别(ASR):使用Whisper-large-v3等ASR系统将语音数据转录为文本,用于评估。
  • 情感识别:使用emotion2vec等模型评估语音中的情感信息。
  • 多语言处理:支持多种语言的输入和输出,评估模型的跨语言能力。

如何运行 URO-Bench

1. 环境准备

# 获取环境
git clone https://github.com/Ruiqi-Yan/URO-Bench
cd URO-Bench
conda create -n uro python=3.11
conda activate uro
pip install -r requirements.txt

# 获取数据
cd ..
export HF_ENDPOINT=https://hf-mirror.com    # 如果网络有问题
huggingface-cli download --repo-type dataset --resume-download Honggao/URO-Bench URO-Bench-data.zip --local-dir ./ --local-dir-use-symlinks False
unzip URO-Bench-data.zip

# 下载 whisper-large-v3(可选)
# 如果网络没问题可以忽略
modelscope download --model AI-ModelScope/whisper-large-v3 --local_dir ./whisper-large-v3

2. 修改推理代码

你可以基于 examples/example-test/inference_for_eval.py(单轮)和 examples/example-test/inference_multi.py(多轮)修改代码。只需将你的SDM推理代码封装在 load_sdmrespond 函数中,并确保输出文件符合要求格式。

3. 修改脚本

根据指南填写 scripts/config.sh
根据你的推理代码完成 scripts/example.sh 的推理部分。请修改 line 20line 88

4. 运行自动评估管道

运行 example.sh 并获取结果。
你需要将 config.sh 的路径作为参数传递给 bash 脚本。

# bash scripts/example.sh /data/ruiqi.yan/URO-Bench/scripts/config.sh
bash scripts/example.sh scripts/config.sh

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 AI 在线答疑 -> 智能检索历史文章和开源项目 -> 尽在微信公众号 -> 搜一搜:蚝油菜花 🥦

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
Dolphin:40语种+22方言!清华联合海天瑞声推出的语音识别大模型,识别精度超Whisper两代
Dolphin是清华大学与海天瑞声联合研发的语音识别大模型,支持40种东方语言和22种中文方言,采用CTC-Attention混合架构,词错率显著低于同类模型。
4545 50
Dolphin:40语种+22方言!清华联合海天瑞声推出的语音识别大模型,识别精度超Whisper两代
|
10月前
|
人工智能 自然语言处理 数据可视化
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
autoMate是一款基于AI和RPA的本地自动化工具,通过自然语言实现复杂任务的自动化操作,支持本地部署,确保数据安全和隐私,适合需要高效处理重复性工作的用户。
728 1
autoMate:无需视觉模型!用DeepSeek-V3/R1就能实现自动化操作电脑,支持任何可视化界面
|
10月前
|
机器学习/深度学习 人工智能 API
GPT-4o-Transcribe:OpenAI 推出高性能语音转文本模型!错误率暴降90%+方言通杀,Whisper当场退役
GPT-4o-Transcribe 是 OpenAI 推出的高性能语音转文本模型,支持多语言和方言,适用于复杂场景如呼叫中心和会议记录,定价为每分钟 0.006 美元。
583 2
|
11月前
|
人工智能 编解码 语音技术
SpeechGPT 2.0:复旦大学开源端到端 AI 实时语音交互模型,实现 200ms 以内延迟的实时交互
SpeechGPT 2.0 是复旦大学 OpenMOSS 团队推出的端到端实时语音交互模型,具备拟人口语化表达、低延迟响应和多情感控制等功能。
2623 21
SpeechGPT 2.0:复旦大学开源端到端 AI 实时语音交互模型,实现 200ms 以内延迟的实时交互
|
10月前
|
人工智能 并行计算 语音技术
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
Open-LLM-VTuber 是一个开源的跨平台语音交互 AI 伴侣项目,支持实时语音对话、视觉感知和生动的 Live2D 动态形象,完全离线运行,保护用户隐私。
1340 10
Open-LLM-VTuber:宅男福音!开源AI老婆离线版上线,实时语音+Live2D互动还会脸红心跳
|
10月前
|
人工智能 自然语言处理 语音技术
Baichuan-Audio:端到端音频大模型,实时双语对话+语音生成
Baichuan-Audio 是百川智能推出的端到端音频大语言模型,支持无缝集成音频理解和生成功能,实现高质量、可控的实时中英双语对话。
1303 3
|
9月前
|
机器学习/深度学习 人工智能 编解码
Text to Bark:让狗狗听懂人话!全球首个AI"狗语"生成器,137种狗狗口音任君挑选
ElevenLabs推出的Text to Bark是全球首个能将文本转换为逼真狗吠声的AI模型,支持多种犬种选择并适配智能家居设备,其核心技术基于深度神经网络训练。
1895 15
Text to Bark:让狗狗听懂人话!全球首个AI"狗语"生成器,137种狗狗口音任君挑选
|
7月前
|
机器学习/深度学习 存储 缓存
Chonkie:面向大语言模型的轻量级文本分块处理库
Chonkie是一个专为大语言模型(LLM)应用场景设计的轻量级文本分块处理库,提供高效的文本分割和管理解决方案。该库采用最小依赖设计理念,特别适用于现实世界的自然语言处理管道。本文将详细介绍Chonkie的核心功能、设计理念以及五种主要的文本分块策略。
363 0
Chonkie:面向大语言模型的轻量级文本分块处理库
|
5月前
|
存储 人工智能 自然语言处理
深入解析AI智能体记忆机制:八大策略与实现方案
本文系统介绍了AI智能体8种主流记忆管理策略:从基础的全量记忆、滑动窗口,到智能的相关性过滤、摘要压缩,再到高阶的向量数据库、知识图谱,以及综合的分层记忆和类OS内存管理。详解各策略原理、代码示例、优缺点及适用场景,助你根据业务需求选择最佳方案,构建高效且个性化的AI对话系统。
|
人工智能 自然语言处理 API
百聆:集成Deepseek API及语音技术的开源AI语音对话助手,实时交互延迟低至800ms
百聆是一款开源的AI语音对话助手,结合ASR、VAD、LLM和TTS技术,提供低延迟、高质量的语音对话体验,适用于边缘设备和低资源环境。
3751 5
百聆:集成Deepseek API及语音技术的开源AI语音对话助手,实时交互延迟低至800ms

热门文章

最新文章