字节豆包全新图像Tokenizer:生成图像最低只需32个token,最高提速410倍

简介: 【7月更文挑战第1天】新方法将图像转为1D token序列,减少计算复杂度,提高生成效率。在保持高画质(如gFID: 1.97 on ImageNet 256x256)的同时,TiTok比现有模型快410倍。虽有资源需求及token限制问题,但展示了图像处理的新方向。[论文链接](https://arxiv.org/abs/2406.07550)

生成高质量的图像是计算机视觉领域中一个重要的研究方向,而图像生成模型的性能和效率在很大程度上取决于图像的表示方法。在传统的图像生成模型中,图像通常被表示为像素矩阵,这会导致计算复杂度高、生成速度慢等问题。为了解决这些问题,研究人员提出了一种名为"Transformer-based 1-Dimensional Tokenizer"(TiTok)的图像表示方法,它将图像表示为1D的token序列,从而实现了更高效的图像生成。

TiTok的核心思想是将图像表示为1D的token序列,而不是传统的2D像素矩阵。具体来说,TiTok首先将图像划分为多个小区域,然后使用一个自注意力机制来计算每个区域的表示向量。这些表示向量被进一步处理,以生成一个固定长度的token序列,其中每个token表示图像中的一个特定特征或模式。

通过将图像表示为1D的token序列,TiTok能够有效地减少计算复杂度和生成时间。首先,1D的token序列比2D像素矩阵更紧凑,因为相邻的token通常表示相似的特征或模式,从而减少了冗余信息。其次,TiTok使用自注意力机制来计算每个区域的表示向量,这比传统的卷积神经网络更高效,因为自注意力机制能够并行地处理所有区域。

TiTok在图像生成任务上表现出了显著的性能优势。首先,TiTok能够生成高质量的图像,其生成的图像在视觉质量上与最先进的图像生成模型相当。其次,TiTok能够显著提高图像生成的效率,其生成速度比传统的图像生成模型快得多。

具体来说,TiTok在ImageNet 256 x 256数据集上的生成质量(gFID)为1.97,比MaskGIT基线提高了4.21。在ImageNet 512 x 512数据集上,TiTok的生成质量(gFID)为2.74,比最先进的扩散模型DiT-XL/2提高了0.30。此外,TiTok的生成速度也比DiT-XL/2快410倍。

尽管TiTok在图像生成任务上表现出了显著的性能优势,但它仍然存在一些局限性。首先,TiTok的生成质量可能受到token数量的限制,因为过少的token可能导致生成的图像过于模糊或不真实。其次,TiTok的自注意力机制可能对计算资源要求较高,这可能会限制其在资源受限的场景下的应用。

此外,TiTok的图像表示方法可能对某些特定的应用场景不适用。例如,在图像分类或目标检测等任务中,2D像素矩阵可能更适合表示图像的特征。因此,在实际应用中,我们需要根据任务的需求选择合适的图像表示方法。

论文链接:https://arxiv.org/abs/2406.07550

目录
相关文章
|
10天前
|
人工智能
又快又准,即插即用!清华8比特量化Attention,两倍加速于FlashAttention2,各端到端任务均不掉点!
清华大学研究团队提出SageAttention,一种高效的8比特量化Attention方法,旨在解决Transformer模型中Attention机制计算复杂度高的问题。SageAttention通过合理的量化策略,实现了计算效率的显著提升,同时保持了高精度。实验结果显示,SageAttention在多种任务中表现优异,为Transformer模型的推理加速提供了新的解决方案。
25 2
|
2月前
|
物联网
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(二)
34 1
|
2月前
|
并行计算 Ubuntu 物联网
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
StableDiffusion-03 (准备篇)15分钟 部署服务并进行LoRA微调全过程详细记录 不到20张百变小樱Sakura微调 3090(24GB) 学不会你打我!(一)
31 0
|
7月前
|
人工智能 编解码 自然语言处理
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
OpenAI 全新发布文生视频模型 Sora,支持 60s 超长长度,有哪些突破?将带来哪些影响?
168 1
|
6月前
|
算法 测试技术 异构计算
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
【SAM模型超级进化】MobileSAM轻量化的分割一切大模型出现,模型缩小60倍,速度提高40倍,效果不减
|
6月前
|
人工智能 自然语言处理 测试技术
next-token被淘汰!Meta实测多token训练方法,推理提速3倍,性能大涨10%+
【6月更文挑战第11天】Meta AI的最新研究表明,多token训练方法能提升大型语言模型的性能和推理速度。与传统next-token预测相比,该方法让模型预测多个未来token,增强上下文理解和生成能力。实验显示,这种方法在代码生成、摘要生成和数学问题解答等任务上性能提升10%+,推理速度提升至原来的3倍,为模型部署提供了更优选择。论文链接:https://arxiv.org/pdf/2404.19737
67 1
|
7月前
|
人工智能 固态存储 算法框架/工具
极智AI | 比特大陆SE5边缘盒子caffe SSD量化与转换部署模型
本教程详细记录了在比特大陆 SE5 边缘盒子上对 caffe SSD 检测模型进行量化和转换部署模型的方法。
224 0
|
编解码 vr&ar 计算机视觉
39亿参数模型公开可用,采样速度7倍提升,残差量化生成图片入选CVPR'22
39亿参数模型公开可用,采样速度7倍提升,残差量化生成图片入选CVPR'22
186 0
39亿参数模型公开可用,采样速度7倍提升,残差量化生成图片入选CVPR'22
|
人工智能 自然语言处理 测试技术
只用几行代码,我让模型『训练』加速了3倍以上!
只用几行代码,我让模型『训练』加速了3倍以上!
159 0
只用几行代码,我让模型『训练』加速了3倍以上!
|
机器学习/深度学习 编解码 数据可视化
英伟达公布StyleGAN-XL:参数量3倍于StyleGAN3,计算时间仅为五分之一
英伟达公布StyleGAN-XL:参数量3倍于StyleGAN3,计算时间仅为五分之一
193 0