暂时未有相关云产品技术能力~
暂无个人介绍
遮挡人脸问题 | 详细解读Attention-Based方法解决遮挡人脸识别问题(附论文下载)
效率新秀 | 详细解读:如何让EfficientNet更加高效、速度更快(二)
效率新秀 | 详细解读:如何让EfficientNet更加高效、速度更快(一)
Tansformer | 详细解读:如何在CNN模型中插入Transformer后速度不变精度剧增?(二)
Tansformer | 详细解读:如何在CNN模型中插入Transformer后速度不变精度剧增?(一)
让检测告别遮挡 | 详细解读NMS-Loss是如何解决目标检测中的遮挡问题?
即插即用 | 卷积与Self-Attention完美融合X-volution插入CV模型将带来全任务的涨点(文末附论文)(二)
即插即用 | 卷积与Self-Attention完美融合X-volution插入CV模型将带来全任务的涨点(文末附论文)(一)
Transformer | 详细解读Transformer怎样从零训练并超越ResNet?(二)
Transformer | 详细解读Transformer怎样从零训练并超越ResNet?(一)
YOLO |多域自适应MSDA-YOLO解读,恶劣天气也看得见(附论文)
Transformer | 没有Attention的Transformer依然是顶流!!!(二)
Transformer | 没有Attention的Transformer依然是顶流!!!(一)
项目实践 | 从零开始边缘部署轻量化人脸检测模型——EAIDK310部署篇
项目实践 | 从零开始边缘部署轻量化人脸检测模型——训练篇(二)
项目实践 | 从零开始边缘部署轻量化人脸检测模型——训练篇(一)
Google新作 | 详细解读 Transformer那些有趣的特性(建议全文背诵)(二)
Google新作 | 详细解读 Transformer那些有趣的特性(建议全文背诵)(一)
极品Trick | 在ResNet与Transformer均适用的Skip Connection解读
Transformer又一城 | Swin-Unet:首个纯Transformer的医学图像分割模型解读
最快ViT | FaceBook提出LeViT,0.077ms的单图处理速度却拥有ResNet50的精度(文末附论文与源码)(二)
最快ViT | FaceBook提出LeViT,0.077ms的单图处理速度却拥有ResNet50的精度(文末附论文与源码)(一)
超越SOLO V2| ISTR:基于Transformer的端到端实例分割(文末获取论文与源码)
CVPR2021 | 重新思考BiSeNet让语义分割模型速度起飞(文末获取论文)(二)
CVPR2021 | 重新思考BiSeNet让语义分割模型速度起飞(文末获取论文)(一)
YOLO在升级 | PP-YOLO v2开源致敬YOLOV4携带Tricks又准又快地归来(附论文与源码)
简单有效 | Transformer通过剪枝降低FLOPs以走向部署(文末获取论文)
经典Transformer | CoaT为Transformer提供Light多尺度的上下文建模能力(附论文下载)(二)
经典Transformer | CoaT为Transformer提供Light多尺度的上下文建模能力(附论文下载)(一)
又改ResNet | 重新思考ResNet:采用高阶方案的改进堆叠策略(附论文下载)(二)
又改ResNet | 重新思考ResNet:采用高阶方案的改进堆叠策略(附论文下载)(一)
VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码)(二)
VariFocalNet | IoU-aware同V-Focal Loss全面提升密集目标检测(附YOLOV5测试代码)(一)
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(二)
最强Vision Trabsformer | 87.7%准确率!CvT:将卷积引入视觉Transformer(文末附论文下载)(一)
全新FPN | 通道增强特征金字塔网络(CE-FPN)提升大中小目标检测的鲁棒性(文末附论文)(二)
全新FPN | 通道增强特征金字塔网络(CE-FPN)提升大中小目标检测的鲁棒性(文末附论文)(一)
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(二)
最强检测 | YOLO V4?都是弟弟! CenterNet2以56.4mAP超越当前所有检测模型(附源码与论文)(一)
CVPR2021全新Backbone | ReXNet在CV全任务以超低FLOPs达到SOTA水平(文末下载论文和源码)(二)
CVPR2021全新Backbone | ReXNet在CV全任务以超低FLOPs达到SOTA水平(文末下载论文和源码)(一)
新型卷积 | 涨点神器!利用Involution可构建新一代神经网络!(文末获取论文与源码)(二)
新型卷积 | 涨点神器!利用Involution可构建新一代神经网络!(文末获取论文与源码)(一)
CVPR2021-即插即用 | Coordinate Attention详解与CA Block实现(文末获取论文原文)(二)
CVPR2021-即插即用 | Coordinate Attention详解与CA Block实现(文末获取论文原文)(一)
知识干货 | GAN的原理和数学推导
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(二)
全领域涨点 | Transformer携Evolving Attention在CV与NLP领域全面涨点(文末送书)(一)
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(二)
Backbone | 谷歌提出LambdaNetworks:无需注意力让网络更快更强(文末获取论文源码)(一)