目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

简介: 目标检测入门系列手册七:目标检测的产品应用实践【工业视觉篇】

>>戳此处立即下载电子书<<,学习全套目标检测算法&模型

image.png

目标检测的产业应用实践

前三章节,具体讲解了目标检测的技术应用,技术如何和产业相结合,发挥出最大的价值,也是我们最为关注的。

在经济稳预期的形势下,国内制造业企业正在加快转型升级的步伐。阿里作为一家有情怀和使命感的科技公司,我们希望通过技术手段来帮助传统企业实现转型升级。正泰新能源与阿里合作引入人工智能图像技术进入生产车间,其无人质检生产线目前已使用将近一年时间,成为了生产制造的重要力量。

在光伏行业,质检环节长期面临专业度高、招工难、人力不足等问题。

image.png

工业自动化水平较高的德国曾推出过组件EL 质检技术,但只针对典型缺陷,仅能做到辅助人工(无法替代人工)。在国内,光伏企业在智能AI 识别技术领域做了近10 年的尝试,但多晶电池和组件的自动质检远未达到工业生产水平。

阿里巴巴利用AI 技术,实现了全球第一个可代替人工的多晶电池和组件EL 质检产品。

image.png

在应用AI 检测之前,这个质检环节需要熟练员工一片一片地对着屏幕去判断电池片好还是不好,同时要拿手柄去确认,视觉疲劳、会导致准确率的下降,同时要培养这样一个熟练员工,基本上要3 个月的时间。

image.png

image.png

多晶电池片之所以难,是因为电池片本身有很多暗纹,这些暗纹和某些瑕疵在图像特征上比较相似,而且瑕疵本身的大小、长宽比、类间距等也很大,因此在算法上有着非常大的挑战。

image.png

在单晶、多晶电池片质检在线上稳定运行半年后,阿里推出单晶、多晶组件EL质检功能,目前已在产线运行且精度稳定在95% 以上。组件由6×10/6×12 块电池组成,因此只要有一个地方识别错误,整张组件便识别错误,因此其识别难度远大于电池片。组件95% 以上的精度意味着单张电池片的识别精度要求远远超过99%。

image.png

正泰新能源在应用阿里的AI 检测之后,在“降本增效”上已经有了非常明显的优势。

image.png

阿里云未来将与更多的企业联合,书写智能制造新篇章。

image.png

附录

[1] Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 580-587.

[2] Girshick R. Fast r-cnn[C]//Proceedings of the IEEE international conference on computer vision. 2015: 1440-1448.

[3] Ren S, He K, Girshick R, et al. Faster r-cnn: Towards real-time object detection with region proposal networks[C]//Advances in neural information processing systems. 2015: 91-99.

[4] Liu W, Anguelov D, Erhan D, et al. Ssd: Single shot multibox detector[C]//European conference on computer vision. Springer, Cham, 2016: 21-37.

[5] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2016: 779-788.

[6] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[J]. arXiv preprint, 2017.

[7] Redmon J, Farhadi A. Yolov3: An incremental improvement[J]. arXiv preprint arXiv:1804.02767, 2018.

[8] Dai J, Li Y, He K, et al. R-fcn: Object detection via region-based fully convolutional networks[C]//Advances in neural information processing systems. 2016: 379-387.

[9] Fei-Fei Li, Justin Johnson, Serena Yeung et al. CS231n: Convolutional Neural Networks for Visual Recognition

[10] Cheng M M, Zhang Z, Lin W Y, et al. BING: Binarized normed gradients for objectness estimation at 300fps[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2014: 3286-3293.

[11] Uijlings J R R, Van De Sande K E A, Gevers T, et al. Selective search for object recognition[J]. International journal of computer vision, 2013, 104(2): 154-171.

[12] Endres I, Hoiem D. Category independent object proposals[C]//European Conference on Computer Vision. Springer, Berlin, Heidelberg, 2010: 575-588.

[13] Law H, Deng J. Cornernet: Detecting objects as paired keypoints[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 734-750.

[14] Xin Lu, Buyu Li, Yuxin Yue, Quanquan Li, Junjie Yan Grid R-CNN arXiv preprint, 2018.

目录
相关文章
|
1月前
|
机器学习/深度学习 人工智能 PyTorch
AI计算机视觉笔记三十二:LPRNet车牌识别
LPRNet是一种基于Pytorch的高性能、轻量级车牌识别框架,适用于中国及其他国家的车牌识别。该网络无需对字符进行预分割,采用端到端的轻量化设计,结合了squeezenet和inception的思想。其创新点在于去除了RNN,仅使用CNN与CTC Loss,并通过特定的卷积模块提取上下文信息。环境配置包括使用CPU开发板和Autodl训练环境。训练和测试过程需搭建虚拟环境并安装相关依赖,执行训练和测试脚本时可能遇到若干错误,需相应调整代码以确保正确运行。使用官方模型可获得较高的识别准确率,自行训练时建议增加训练轮数以提升效果。
|
1月前
|
传感器 人工智能 算法
AI计算机视觉笔记二十七:YOLOV8实现目标追踪
本文介绍了使用YOLOv8实现人员检测与追踪的方法。通过为每个人员分配唯一ID,实现持续追踪,并可统计人数,适用于小区或办公楼出入管理。首先解释了目标检测与追踪的区别,接着详细描述了使用匈牙利算法和卡尔曼滤波实现目标关联的过程。文章提供了基于IOU实现追踪的具体步骤,包括环境搭建、模型加载及追踪逻辑实现。通过示例代码展示了如何使用YOLOv8进行实时视频处理,并实现人员追踪功能。测试结果显示,该方法在实际场景中具有较好的应用潜力。
|
2月前
|
机器学习/深度学习 自然语言处理 负载均衡
揭秘混合专家(MoE)模型的神秘面纱:算法、系统和应用三大视角全面解析,带你领略深度学习领域的前沿技术!
【8月更文挑战第19天】在深度学习领域,混合专家(Mixture of Experts, MoE)模型通过整合多个小型专家网络的输出以实现高性能。从算法视角,MoE利用门控网络分配输入至专家网络,并通过组合机制集成输出。系统视角下,MoE需考虑并行化、通信开销及负载均衡等优化策略。在应用层面,MoE已成功应用于Google的BERT模型、Facebook的推荐系统及Microsoft的语音识别系统等多个场景。这是一种强有力的工具,能够解决复杂问题并提升效率。
62 2
|
4月前
|
机器学习/深度学习 人工智能 自然语言处理
OpenCV与AI深度学习之常用AI名词解释学习
AGI:Artificial General Intelligence (通用人工智能):是指具备与人类同等或超越人类的智能,能够表现出正常人类所具有的所有智能行为。又被称为强人工智能。
111 2
|
4月前
|
机器学习/深度学习
【机器学习】视觉基础模型的三维意识:前沿探索与局限
【机器学习】视觉基础模型的三维意识:前沿探索与局限
138 0
|
11月前
|
传感器 存储 前端开发
视觉SLAM 关键技术与发展概述
最近看了北京理工大学的课程《智能车辆概述与应用》,感觉入门角度讲的还不错的,于是通过本文记录关键内容。
287 0
|
机器学习/深度学习 编解码 监控
计算机视觉概述:视觉任务+场景领域+发展历程+典型任务
比如下图,做到的不仅仅是检测到图像前景中有四个⼈、⼀条街道和⼏辆⻋。除了这些基本信息,⼈类还能够看出图像前景中的⼈正在⾛路,其中⼀⼈⾚脚,我们甚⾄知道他们是谁。我们可以理性地推断出图中⼈物没有被⻋撞击的危险,⽩⾊的⼤众汽⻋没有停好。⼈类还可以描述图中⼈物的穿着,不⽌是⾐服颜⾊,还有材质与纹理。⼈类能够理解和描述图像中的场景。
369 0
|
机器学习/深度学习 人工智能 算法
基于深度学习视觉目标以及多目标跟踪研究现状
视觉多目标跟踪是计算机视觉领域的热点问题,然而,场景中目标数量的不确定、目标之间的相互遮挡、目标特征区分度不高等多种难题导致了视觉多目标跟踪现实应用进展缓慢。近年来,随着视觉智能处理研究的不断深入,涌现出多种多样的深度学习类视觉多目标跟踪算法。
920 0
基于深度学习视觉目标以及多目标跟踪研究现状
|
机器学习/深度学习 人工智能 文字识别
阿里云机器学习平台PAI-AI行业插件-视觉模型平台OCR模型训练使用简明教程
AI行业插件提供视觉模型训练插件和通用模型训练插件,他们支持在线标注、自动模型训练、超参优化及模型评估。您只需要准备少量标注数据,并设置训练时长,就可以得到深度优化的模型。同时,插件平台与PAI-EAS高效对接,可以快速将训练模型部署为RESTful服务。视觉模型训练插件支持视觉领域常用模型的标注、训练及发布,并针对移动端场景进行了模型深度优化,您可以通过手机扫码快速体验模型效果,也可以将模型进行服务端部署。本文着重讲述OCR文字识别使用简明教程
547 0
阿里云机器学习平台PAI-AI行业插件-视觉模型平台OCR模型训练使用简明教程
|
机器学习/深度学习 人工智能 文字识别
阿里云机器学习平台PAI-AI行业插件-视觉模拟平台图像分类使用简明教程
AI行业插件提供视觉模型训练插件和通用模型训练插件,他们支持在线标注、自动模型训练、超参优化及模型评估。您只需要准备少量标注数据,并设置训练时长,就可以得到深度优化的模型。同时,插件平台与PAI-EAS高效对接,可以快速将训练模型部署为RESTful服务。视觉模型训练插件支持视觉领域常用模型的标注、训练及发布,并针对移动端场景进行了模型深度优化,您可以通过手机扫码快速体验模型效果,也可以将模型进行服务端部署。本文着重讲述图像分类使用简明教程
2063 0
阿里云机器学习平台PAI-AI行业插件-视觉模拟平台图像分类使用简明教程