卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴

简介: 卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴

你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗?

最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等 Transformer 相比,性能也更好或相当。


相关文章
|
计算机视觉
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(二)
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(二)
271 0
|
29天前
|
机器学习/深度学习 计算机视觉 网络架构
为什么卷积现在不火了:CNN研究热度降温的深层原因分析
纵观近年的顶会论文和研究热点,我们不得不承认一个现实:CNN相关的研究论文正在减少,曾经的"主角"似乎正逐渐淡出研究者的视野。
74 11
为什么卷积现在不火了:CNN研究热度降温的深层原因分析
|
7月前
|
机器学习/深度学习 固态存储 算法
目标检测的福音 | 如果特征融合还用FPN/PAFPN?YOLOX+GFPN融合直接起飞,再涨2个点
目标检测的福音 | 如果特征融合还用FPN/PAFPN?YOLOX+GFPN融合直接起飞,再涨2个点
312 0
|
7月前
|
机器学习/深度学习 算法 计算机视觉
图视觉模型崛起 | MobileViG同等精度比MobileNetv2快4倍,同等速度精度高4%!
图视觉模型崛起 | MobileViG同等精度比MobileNetv2快4倍,同等速度精度高4%!
113 0
|
机器学习/深度学习 编解码 数据可视化
深度学习基础入门篇9.1:卷积之标准卷积:卷积核/特征图/卷积计算、填充、感受视野、多通道输入输出、卷积优势和应用案例讲解
深度学习基础入门篇9.1:卷积之标准卷积:卷积核/特征图/卷积计算、填充、感受视野、多通道输入输出、卷积优势和应用案例讲解
深度学习基础入门篇9.1:卷积之标准卷积:卷积核/特征图/卷积计算、填充、感受视野、多通道输入输出、卷积优势和应用案例讲解
|
机器学习/深度学习 计算机视觉
超越 ConvNeXt、RepLKNet | 看 51×51 卷积核如何破万卷!
超越 ConvNeXt、RepLKNet | 看 51×51 卷积核如何破万卷!
186 0
|
编解码 自动驾驶 机器人
重新思考空洞卷积 | RegSeg超越DeepLab、BiSeNetv2让语义分割实时+高精度(一)
重新思考空洞卷积 | RegSeg超越DeepLab、BiSeNetv2让语义分割实时+高精度(一)
154 0
|
机器学习/深度学习 编解码 计算机视觉
重新思考空洞卷积 | RegSeg超越DeepLab、BiSeNetv2让语义分割实时+高精度(二)
重新思考空洞卷积 | RegSeg超越DeepLab、BiSeNetv2让语义分割实时+高精度(二)
228 0
|
机器学习/深度学习 编解码 vr&ar
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(一)
迟到的 HRViT | Facebook提出多尺度高分辨率ViT,这才是原汁原味的HRNet思想(一)
252 0
|
机器学习/深度学习 编解码 PyTorch
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
大到31x31的超大卷积核,涨点又高效,一作解读RepLKNet
131 0