TIGER:清华突破性模型让AI「听觉」进化:参数量暴降94%,菜市场都能分离清晰人声

简介: TIGER 是清华大学推出的轻量级语音分离模型,通过时频交叉建模和多尺度注意力机制,显著提升语音分离效果,同时降低参数量和计算量。

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🔊 「你的降噪耳机过时了!清华突破性模型让AI「听觉」进化:参数量暴降94%,菜市场都能分离清晰人声」

大家好,我是蚝油菜花。当你在这些场景崩溃时——

  • 🚇 地铁电话会议:同事发言总被报站声「截胡」
  • 🏠 智能家居失控:扫地机器人听不清指令乱撞
  • 🎧 降噪耳机失效:飞机轰鸣中听不清播客关键信息...

清华大学用 TIGER模型 重新定义语音分离!这个革命性框架通过时频交叉建模与多尺度注意力机制,在参数量仅有传统模型5%的情况下,实现复杂场景下的精准人声提取。更惊人的是,它已通过EchoSet数据集验证——接下来我们将深度解析这个「听觉增强」黑科技如何改变人机交互!

🚀 快速阅读

TIGER 是清华大学研究团队提出的一种轻量级语音分离模型。

  1. 核心功能:通过时频交叉建模模块(FFI)和多尺度注意力机制,实现高效语音分离。
  2. 技术原理:利用频带切分和全频/帧注意力模块(F³A),优化特征提取,降低计算量和参数量。

TIGER 是什么

TIGER

TIGER(Time-frequency Interleaved Gain Extraction and Reconstruction Network)是清华大学研究团队提出的一种轻量级语音分离模型。该模型通过创新的时频交叉建模策略,结合频带切分和多尺度注意力机制,显著提升了语音分离的效果,同时大幅降低了参数量和计算量。

TIGER 的核心在于时频交叉建模模块(FFI),能够高效整合时间和频率信息,更好地提取语音特征。此外,模型引入了多尺度选择性注意力模块(MSA)和全频/帧注意力模块(F³A),进一步优化了特征提取能力,使得 TIGER 在复杂声学环境中表现出色。

TIGER 的主要功能

  • 高效语音分离:TIGER 通过创新的时频交叉建模模块(FFI)和多尺度注意力机制,能够高效地分离混合语音中的不同说话者。
  • 低计算量与低参数量:模型在压缩94.3%的参数量和95.3%的计算量后,性能仍与当前最先进的模型相当。
  • 复杂声学环境适应:TIGER 通过 EchoSet 数据集模拟真实场景中的噪声和混响,提升了模型在复杂环境下的鲁棒性。

TIGER 的技术原理

TIGER

  • 时频交叉建模策略:TIGER 的核心在于时频交叉建模模块(FFI),通过交替处理时间和频率信息,有效整合时频特征。模块包含频率路径和帧路径,每个路径都包含多尺度选择性注意力模块(MSA)和全频/帧注意力模块(F³A),能融合局部和全局信息,提升语音分离效果。
  • 频带切分:语音信号的能量在不同频带上分布不均,中低频带包含更多语音信息,高频带包含更多噪声和细节。TIGER 通过频带切分策略,将频带划分为不同宽度的子带,减少计算量的同时,让模型专注于关键频带。
  • 多尺度注意力机制:TIGER 引入了多尺度选择性注意力模块(MSA),通过多尺度卷积层和选择性注意力机制,融合局部和全局信息,增强模型对多尺度特征的提取能力。

如何运行 TIGER

1. 安装依赖

git clone https://github.com/JusperLee/TIGER.git
cd TIGER
pip install -r requirements.txt

2. 使用预训练模型进行测试

# 测试语音分离
python inference_speech.py --audio_path test/mix.wav

# 测试电影音频分离
python inference_dnr.py --audio_path test/test_mixture_466.wav

3. 使用 EchoSet 数据集进行训练

python audio_train.py --conf_dir configs/tiger.yml

4. 使用 EchoSet 数据集进行评估

python audio_test.py --conf_dir configs/tiger.yml

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发感兴趣,我会每日分享大模型与 AI 领域的开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术!

🥦 微信公众号|搜一搜:蚝油菜花 🥦

相关实践学习
达摩院智能语音交互 - 声纹识别技术
声纹识别是基于每个发音人的发音器官构造不同,识别当前发音人的身份。按照任务具体分为两种: 声纹辨认:从说话人集合中判别出测试语音所属的说话人,为多选一的问题 声纹确认:判断测试语音是否由目标说话人所说,是二选一的问题(是或者不是) 按照应用具体分为两种: 文本相关:要求使用者重复指定的话语,通常包含与训练信息相同的文本(精度较高,适合当前应用模式) 文本无关:对使用者发音内容和语言没有要求,受信道环境影响比较大,精度不高 本课程主要介绍声纹识别的原型技术、系统架构及应用案例等。 讲师介绍: 郑斯奇,达摩院算法专家,毕业于美国哈佛大学,研究方向包括声纹识别、性别、年龄、语种识别等。致力于推动端侧声纹与个性化技术的研究和大规模应用。
相关文章
|
3月前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
1972 120
|
4月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
949 109
|
3月前
|
人工智能 搜索推荐 程序员
当AI学会“跨界思考”:多模态模型如何重塑人工智能
当AI学会“跨界思考”:多模态模型如何重塑人工智能
367 120
|
4月前
|
人工智能 监控 Kubernetes
稳定支撑大规模模型调用,携程旅游的 AI 网关实践
为了进一步提升服务水平和服务质量,携程很早就开始在人工智能大模型领域进行探索。而随着工作的深入,大模型服务的应用领域不断扩大,公司内部需要访问大模型服务的应用也越来越多,不可避免的就遇到了几个问题,我们自然就会想到使用网关来对这些服务接入进行统一管理,并增加各种切面上的流量治理功能。
463 46
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
816 13
AI Compass前沿速览:Qwen3-Max、Mixboard、Qwen3-VL、Audio2Face、Vidu Q2 AI视频生成模型、Qwen3-LiveTranslate-全模态同传大模型
|
4月前
|
人工智能 负载均衡 API
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
大家好,我是Immerse,独立开发者、AGI实践者。分享编程、AI干货、开源项目与个人思考。关注公众号“沉浸式趣谈”,获取独家内容。Vercel新推出的AI Gateway,统一多模型API,支持自动切换、负载均衡与零加价调用,让AI开发更高效稳定。一行代码切换模型,告别接口烦恼!
583 1
Vercel 发布 AI Gateway 神器!可一键访问数百个模型,助力零门槛开发 AI 应用
|
5月前
|
人工智能 自然语言处理 机器人
AI Compass前沿速览:Jetson Thor英伟达AI计算、Gemini 2.5 Flash Image、Youtu腾讯智能体框架、Wan2.2-S2V多模态视频生成、SpatialGen 3D场景生成模型
AI Compass前沿速览:Jetson Thor英伟达AI计算、Gemini 2.5 Flash Image、Youtu腾讯智能体框架、Wan2.2-S2V多模态视频生成、SpatialGen 3D场景生成模型
AI Compass前沿速览:Jetson Thor英伟达AI计算、Gemini 2.5 Flash Image、Youtu腾讯智能体框架、Wan2.2-S2V多模态视频生成、SpatialGen 3D场景生成模型
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
如何让AI更“聪明”?VLM模型的优化策略与测试方法全解析​
本文系统解析视觉语言模型(VLM)的核心机制、推理优化、评测方法与挑战。涵盖多模态对齐、KV Cache优化、性能测试及主流基准,助你全面掌握VLM技术前沿。建议点赞收藏,深入学习。
1250 8

热门文章

最新文章