从视频到音频:使用VIT进行音频分类

简介: 在本文中,我们将利用ViT - Vision Transformer的是一个Pytorch实现在音频分类数据集GTZAN数据集-音乐类型分类上训练它。

就机器学习而言,音频本身是一个有广泛应用的完整的领域,包括语音识别、音乐分类和声音事件检测等等。传统上音频分类一直使用谱图分析和隐马尔可夫模型等方法,这些方法已被证明是有效的,但也有其局限性。近期VIT已经成为音频任务的一个有前途的替代品,OpenAI的Whisper就是一个很好的例子。

在本文中,我们将利用ViT - Vision Transformer的是一个Pytorch实现在音频分类数据集GTZAN数据集-音乐类型分类上训练它。

数据集介绍

GTZAN 数据集是在音乐流派识别 (MGR) 研究中最常用的公共数据集。 这些文件是在 2000-2001 年从各种来源收集的,包括个人 CD、收音机、麦克风录音,代表各种录音条件下的声音。

这个数据集由子文件夹组成,每个子文件夹是一种类型。

加载数据集

我们将加载每个.wav文件,并通过librosa库生成相应的Mel谱图。

mel谱图是声音信号的频谱内容的一种可视化表示,它的垂直轴表示mel尺度上的频率,水平轴表示时间。它是音频信号处理中常用的一种表示形式,特别是在音乐信息检索领域。

梅尔音阶(Mel scale,英语:mel scale)是一个考虑到人类音高感知的音阶。因为人类不会感知线性范围的频率,也就是说我们在检测低频差异方面要胜于高频。 例如,我们可以轻松分辨出500 Hz和1000 Hz之间的差异,但是即使之间的距离相同,我们也很难分辨出10,000 Hz和10,500 Hz之间的差异。所以梅尔音阶解决了这个问题,如果梅尔音阶的差异相同,则意指人类感觉到的音高差异将相同。

 defwav2melspec(fp):
     y, sr=librosa.load(fp)
     S=librosa.feature.melspectrogram(y=y, sr=sr, n_mels=128)
     log_S=librosa.amplitude_to_db(S, ref=np.max)
     img=librosa.display.specshow(log_S, sr=sr, x_axis='time', y_axis='mel')
     # get current figure without white border
     img=plt.gcf()
     img.gca().xaxis.set_major_locator(plt.NullLocator())
     img.gca().yaxis.set_major_locator(plt.NullLocator())
     img.subplots_adjust(top=1, bottom=0, right=1, left=0,
             hspace=0, wspace=0)
     img.gca().xaxis.set_major_locator(plt.NullLocator())
     img.gca().yaxis.set_major_locator(plt.NullLocator())
     # to pil image
     img.canvas.draw()
     img=Image.frombytes('RGB', img.canvas.get_width_height(), img.canvas.tostring_rgb())
     returnimg

上述函数将产生一个简单的mel谱图:

现在我们从文件夹中加载数据集,并对图像应用转换。

 classAudioDataset(Dataset):
     def__init__(self, root, transform=None):
         self.root=root
         self.transform=transform
         self.classes=sorted(os.listdir(root))
         self.class_to_idx= {c: ifori, cinenumerate(self.classes)}
         self.samples= []
         forcinself.classes:
             forfpinos.listdir(os.path.join(root, c)):
                 self.samples.append((os.path.join(root, c, fp), self.class_to_idx[c]))
     
     def__len__(self):
         returnlen(self.samples)
     
     def__getitem__(self, idx):
         fp, target=self.samples[idx]
         img=Image.open(fp)
         ifself.transform:
             img=self.transform(img)
         returnimg, target
 
 train_dataset=AudioDataset(root, transform=transforms.Compose([
     transforms.Resize((480, 480)),
     transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
 ]))

ViT模型

我们将利用ViT来作为我们的模型:Vision Transformer在论文中首次介绍了一幅图像等于16x16个单词,并成功地展示了这种方式不依赖任何的cnn,直接应用于图像Patches序列的纯Transformer可以很好地执行图像分类任务。

将图像分割成Patches,并将这些Patches的线性嵌入序列作为Transformer的输入。Patches的处理方式与NLP应用程序中的标记(单词)是相同的。

由于缺乏CNN固有的归纳偏差(如局部性),Transformer在训练数据量不足时不能很好地泛化。但是当在大型数据集上训练时,它确实在多个图像识别基准上达到或击败了最先进的水平。

实现的结构如下所示:

 classViT(nn.Sequential):
     def__init__(self,     
                 in_channels: int=3,
                 patch_size: int=16,
                 emb_size: int=768,
                 img_size: int=356,
                 depth: int=12,
                 n_classes: int=1000,
                 **kwargs):
         super().__init__(
             PatchEmbedding(in_channels, patch_size, emb_size, img_size),
             TransformerEncoder(depth, emb_size=emb_size, **kwargs),
             ClassificationHead(emb_size, n_classes)
         )

训练

训练循环也是传统的训练过程:

 vit=ViT(
     n_classes=len(train_dataset.classes)
 )
 
 vit.to(device)
 
 # train
 train_loader=DataLoader(train_dataset, batch_size=32, shuffle=True)
 optimizer=optim.Adam(vit.parameters(), lr=1e-3)
 scheduler=ReduceLROnPlateau(optimizer, 'max', factor=0.3, patience=3, verbose=True)
 criterion=nn.CrossEntropyLoss()
 num_epochs=30
 
 forepochinrange(num_epochs):
     print('Epoch {}/{}'.format(epoch, num_epochs-1))
     print('-'*10)
 
     vit.train()
 
     running_loss=0.0
     running_corrects=0
 
     forinputs, labelsintqdm.tqdm(train_loader):
         inputs=inputs.to(device)
         labels=labels.to(device)
 
         optimizer.zero_grad()
 
         withtorch.set_grad_enabled(True):
             outputs=vit(inputs)
             loss=criterion(outputs, labels)
 
             _, preds=torch.max(outputs, 1)
             loss.backward()
             optimizer.step()
 
         running_loss+=loss.item() *inputs.size(0)
         running_corrects+=torch.sum(preds==labels.data)
 
     epoch_loss=running_loss/len(train_dataset)
     epoch_acc=running_corrects.double() /len(train_dataset)
     scheduler.step(epoch_acc)
 
     print('Loss: {:.4f} Acc: {:.4f}'.format(epoch_loss, epoch_acc))

总结

使用PyTorch从头开始训练了这个Vision Transformer架构的自定义实现。因为数据集非常小(每个类只有100个样本),这影响了模型的性能,只获得了0.71的准确率。

这只是一个简单的演示,如果需要提高模型表现,可以使用更大的数据集,或者稍微调整架构的各种超参数!

https://avoid.overfit.cn/post/1f4156a56139417d97745066c0b497ec

作者:Alessandro Lamberti

目录
相关文章
|
2月前
MUMU:用文本、图像引导,多模态图像生成模型
【9月更文挑战第19天】随着人工智能技术的发展,多模态模型因其能处理文本、图像、音频等多种信息而备受关注。在图像生成领域,一种名为MUMU的新模型展现出巨大潜力。MUMU可接收文本和图像提示并生成相应图像,如根据“一个<图片:男人>男人和他的<图片:狗>狗在一个<图片:卡通>动画风格中”生成图像。通过训练包含文本-图像数据集的视觉-语言编码器及扩散解码器,MUMU能实现风格转换和角色一致性等任务,并在图像编辑和合成方面展示出潜力。然而,其仍受限于复杂场景处理能力和计算资源需求。论文详情见链接:https://arxiv.org/abs/2406.18790。
36 1
|
3月前
|
机器人 人机交互 语音技术
语音情感基座模型emotion3vec 问题之什么是帧级别损失,如何计算
语音情感基座模型emotion3vec 问题之什么是帧级别损失,如何计算
|
存储 传感器 数据可视化
3D目标检测数据集 KITTI(标签格式解析、3D框可视化、点云转图像、BEV鸟瞰图)
本文介绍在3D目标检测中,理解和使用KITTI 数据集,包括KITTI 的基本情况、下载数据集、标签格式解析、3D框可视化、点云转图像、画BEV鸟瞰图等,并配有实现代码。
1499 1
|
机器学习/深度学习 传感器 编解码
史上最全 | BEV感知算法综述(基于图像/Lidar/多模态数据的3D检测与分割任务)
以视觉为中心的俯视图(BEV)感知最近受到了广泛的关注,因其可以自然地呈现自然场景且对融合更友好。随着深度学习的快速发展,许多新颖的方法尝试解决以视觉为中心的BEV感知,但是目前还缺乏对该领域的综述类文章。本文对以视觉为中心的BEV感知及其扩展的方法进行了全面的综述调研,并提供了深入的分析和结果比较,进一步思考未来可能的研究方向。如下图所示,目前的工作可以根据视角变换分为两大类,即基于几何变换和基于网络变换。前者利用相机的物理原理,以可解释性的方式转换视图。后者则使用神经网络将透视图(PV)投影到BEV上。
史上最全 | BEV感知算法综述(基于图像/Lidar/多模态数据的3D检测与分割任务)
如何使用变分自编码器进行图像生成
如何使用变分自编码器进行图像生成
87 0
|
6月前
|
机器学习/深度学习 编解码 测试技术
图像超分:真实感图像超分辨率的局部判别学习方法
图像超分:真实感图像超分辨率的局部判别学习方法
88 0
|
6月前
|
人工智能 自然语言处理 语音技术
音频提取字幕开源模型-whisper
音频提取字幕开源模型-whisper
167 0
|
11月前
|
机器学习/深度学习 数据采集 人工智能
本地训练,立等可取,30秒音频素材复刻霉霉讲中文音色基于Bert-VITS2V2.0.2
之前我们[使用Bert-VITS2V2.0.2版本对现有的原神数据集进行了本地训练](https://v3u.cn/a_id_330),但如果克隆对象脱离了原神角色,我们就需要自己构建数据集了,事实上,深度学习模型的性能和泛化能力都依托于所使用的数据集的质量和多样性,本次我们在本地利用Bert-VITS2V2.0.2对霉霉讲中文的音色进行克隆实践。
本地训练,立等可取,30秒音频素材复刻霉霉讲中文音色基于Bert-VITS2V2.0.2
|
存储 机器学习/深度学习 编解码
使用训练分类网络预处理多分辨率图像
说明如何准备用于读取和预处理可能不适合内存的多分辨率全玻片图像 (WSI) 的数据存储。肿瘤分类的深度学习方法依赖于数字病理学,其中整个组织切片被成像和数字化。生成的 WSI 具有高分辨率,大约为 200,000 x 100,000 像素。WSI 通常以多分辨率格式存储,以促进图像的高效显示、导航和处理。 读取和处理WSI数据。这些对象有助于使用多个分辨率级别,并且不需要将图像加载到核心内存中。此示例演示如何使用较低分辨率的图像数据从较精细的级别有效地准备数据。可以使用处理后的数据来训练分类深度学习网络。
304 0
|
人工智能 人机交互
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
可组合扩散模型主打Any-to-Any生成:文本、图像、视频、音频全都行
175 0
下一篇
无影云桌面