技术笔记:openCV特征点识别与findHomography算法过滤

简介: 技术笔记:openCV特征点识别与findHomography算法过滤

一,首先我们对函数先进行分析


findHomography:


计算多个二维点对之间的最优单映射变换矩阵 H(3行x3列) (就是对图片的矫正),使用最小均方误差或者RANSAC方法


函数功能:找到两个平面之间的转换矩阵。


这里涉及到映射变换的知识,


下面介绍下什么是映射变换:


1,如下图所示:


如果平面上点场的点建立了一个一一对应,并且满足:


(1)任何共线三点的象仍是共线三点;


(2)共线四点的交比不变。


则这个一一对应叫做点场的射影变换,简称射影变换


交比:


一维射影变换:


二维的图像是这样的


射影变换也叫做单应(Homography)


图1通过H矩阵变换变成图2,就是这个函数的公式


X′=HX


X′代表图2


其操作过程


在“大”图像(目标图像)上选择4个点和“小”图像(被合并图像)的四角做对应,然后根据这4对对应的点计算两幅图像的单应矩阵。


得到单应矩阵H后,利用函数warpPerspective将H应用到“小”图像上,得到图像M


将图像M合并到目标图像中选择的四个点的位置


Mat cv::findHomography ( InputArray srcPoints,


InputArray dstPoints,


int method = 0,


double ransacReprojThreshold = 3,


OutputArray mask = noArray(),


const int maxIters = 2000,


const double confidence = 0.995


)


参数详解:


srcPoints 源平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector


类型


dstPoints 目标平面中点的坐标矩阵,可以是CV_32FC2类型,也可以是vector


类型


method 计算单应矩阵所使用的方法。不同的方法对应不同的参数,具体如下:


0 - 利用所有点的常规方法


RANSAC - RANSAC-基于RANSAC的鲁棒算法


LMEDS - 最小中值鲁棒算法


RHO - PROSAC-基于PROSAC的鲁棒算法


ransacReprojThreshold


将点对视为内点的最大允许重投影错误阈值(仅用于RANSAC和RHO方法)。如果


则点被认为是个外点(即错误匹配点对)。若srcPoints和dstPoints是以像素为单位的,则该参数通常设置在1到10的范围内。


mask


可选输出掩码矩阵,通常由鲁棒算法(RANSAC或LMEDS)设置。 请注意,输入掩码矩阵是不需要设置的。


maxIters RANSAC 算法的最大迭代次数,默认值为2000。


confidence 可信度值,取值范围为0到1.


首先定义两个vector保存对应的4对点


//图片映射矩阵把不同角度的图片矫正


void findHomographyText(){


// Read source image.


Mat src = imread("F:\视觉\opencv\pic\1.png");


// Four corners of the book in source image


vector


pts_src;


pts_src.push_back(Point2f(0, 0));


pts_src.push_back(Point2f(src.cols, 0));


pts_src.push_back(Point2f(src.cols, src.rows));


pts_src.push_back(Point2f(0, src.rows));


// Four corners of the book in destination image.


vector


pts_dst;


pts_dst.push_back(Point2f(0, 0));


pts_dst.push_back(Point2f(src.cols/4, 0));


pts_dst.push_back(Point2f(src.cols/3, src.rows));


pts_dst.push_back(Point2f(0, src.rows/2));


// Calculate Homography


Mat h = findHomography(pts_src, pts_dst);


// Output image


Mat im_out;


// Warp source image to destination based on homography


warpPerspective(src, im_out, h, src.size());


// Display images


imshow("Source Image", src);


imshow("Warped Source Image", im_out);


waitKey(0);


}


结果如下图所示对图像进行拉伸


步骤如下


1,相求H


vector


pts_src;


pts_src.push_back(Point2f(0, 0));


pts_src.push_back(Point2f(src.cols, 0));


pts_src.push_back(Point2f(src.cols, src.rows));


pts_src.push_back(Point2f(0, src.rows));


// Four corners of the book in destination image.


vector


pts_dst;


pts_dst.push_back(Point2f(0, 0));


pts_dst.push_back(Point2f(src.cols/4, 0));


pts_dst.push_back(Point2f(src.cols/3, src.rows));


pts_dst.push_back(Point2f(0, src.rows/2));


// Calculate Homography


Mat h = findHomography(pts_src, pts_dst);


通过H求对应的图像(映射到输出图片上)


warpPerspective(src, im_out, h, src.size());


warpPerspective:通过H求取


im_out输出值介绍完两个主要的函数下面开始对图像进行识别和标记


2,SURF对图像的识别和标记


1,开发思路


(1)使用SIFT或者SURF进行角点检测,获取两个图像的的角点集合


(2)根据两个集合,使用特征点匹配,匹配类似的点 FlannBasedMatcher


(3)过滤特征点对。


(4)通过特征点对,求出H值


(5)画出特征区域


代码实现:


1,使用SIFT或者SURF进行角点检测,获取两个图像的的角点集合


src = imread("F:\视觉\opencv\pic\11.png");//读图片


src3 = imread("F:\视觉\opencv\pic\5.png");//读图片


int minHessian = 400;


cvtColor(src, src, COLOR_BGR2GRAY);


cvtColor(src3, src3, COLOR_BGR2GRAY);


Ptr detector = SIFT::create(minHessian);


vector keypoints_obj;//图片1特征点


vector keypoints_scene;//图片2特征点


Mat descriptor_obj, descriptor_scene;


//找出特征点存到keypoints_obj与keypoints_scene点集中


detector->detectAndCompute(src, Mat(), keypoints_obj, descriptor_obj);


detector->detectAndCompute(src3, Mat(), keypoints_scene, descriptor_scene);


// matching 找到特征集合


FlannBasedMatcher matcher;


vector matches;


matcher.match(descriptor_obj, descriptor_scene, matches);


2,过滤相似度高的图像


// find good matched points


double minDist = 1000;


//代码效果参考:http://www.jhylw.com.cn/383329613.html

double maxDist = 0;

for (int i = 0; i < descriptor_obj.rows; i++) {


double dist = matches【i】.distance;


if (dist > maxDist) {


maxDist = dist;


}


if (dist [span style="color: rgba(0, 0, 0, 1)"> minDist) {


minDist = dist;


}


}


printf("max distance : %f\n", maxDist);


printf("min distance : %f\n", minDist);


vector goodMatches;


//过滤相同的点


for (int i = 0; i < descriptor_obj.rows; i++) {


double dist = matches【i】.distance;//相识度


printf("distance : %f\n", dist);


if (dist < max(3 minDist, 0.2)) {


goodMatches.push_back(matches【i】);


}


}


3,求出H


vector


obj;


vector


objInScene;


for (size_t t = 0; t < goodMatches.size(); t++) {


//把DMatch转成坐标 Point2f


obj.push_back(keypoints_obj【goodMatches【t】.queryIdx】.pt);


objInScene.push_back(keypoints_scene【goodMatches【t】.trainIdx】.pt);


}


//用来求取“射影变换”的H转制矩阵函数 X'=H X ,并使用RANSAC消除一些出错的点


Mat H = findHomography(obj, objInScene, RANSAC);


4,使用H求出映射到大图的点


vector


obj_corners(4);


vector


scene_corners(4);


obj_corners【0】 = Point(0, 0);


obj_corners【1】 = Point(src.cols, 0);


obj_corners【2】 = Point(src.cols, src.rows);


obj_corners【3】 = Point(0, src.rows);


//透视变换(把斜的图片扶正)


cout [ H [ endl;


perspectiveTransform(obj_corners, scene_corners, H);


5,在原图上画线段


?123456789Mat dst; cvtColor(src3, dst, COLOR_GRAY2BGR); line(dst, scene_corners【0】, scene_corners【1】, Scalar(0, 0, 255), 2, 8, 0); line(dst, scene_corners【1】, scene_corners【2】, Scalar(0, 0, 255), 2, 8, 0); line(dst, scene_corners【2】, scene_corners【3】, Scalar(0, 0, 255), 2, 8, 0); line(dst, scene_corners【3】, scene_corners【0】, Scalar(0, 0, 255), 2, 8, 0); imshow("Draw object", dst);


  相似效果


谢谢,如果觉得可以请点个赞!转发请付链接。。。。


原文链接:



// find good matched pointsdouble minDist = 1000;double maxDist = 0;


for (int i = 0; i maxDist) {maxDist = dist;}if (dist < minDist) {minDist = dist;}}printf("max distance : %f\n", maxDist);printf("min distance : %f\n", minDist);


vector goodMatches;//过滤相同的点for (int i = 0; i < descriptor_obj.rows; i++) {double dist = matches【i】.distance;//相识度printf("distance : %f\n", dist);if (dist < max(3 minDist, 0.2)) {goodMatches.push_back(matches【i】);}}

相关文章
|
1月前
|
算法 索引
❤️算法笔记❤️-(每日一刷-141、环形链表)
❤️算法笔记❤️-(每日一刷-141、环形链表)
45 0
|
1月前
|
Ubuntu 应用服务中间件 nginx
Ubuntu安装笔记(三):ffmpeg(3.2.16)源码编译opencv(3.4.0)
本文是关于Ubuntu系统中使用ffmpeg 3.2.16源码编译OpenCV 3.4.0的安装笔记,包括安装ffmpeg、编译OpenCV、卸载OpenCV以及常见报错处理。
140 2
Ubuntu安装笔记(三):ffmpeg(3.2.16)源码编译opencv(3.4.0)
|
1月前
|
机器学习/深度学习 计算机视觉
目标检测笔记(六):如何结合特定区域进行目标检测(基于OpenCV的人脸检测实例)
本文介绍了如何使用OpenCV进行特定区域的目标检测,包括人脸检测实例,展示了两种实现方法和相应的代码。
61 1
目标检测笔记(六):如何结合特定区域进行目标检测(基于OpenCV的人脸检测实例)
|
1月前
|
Ubuntu Linux C语言
Ubuntu安装笔记(二):ubuntu18.04编译安装opencv 3.4.0 opencv_contrib3.4.0
本文介绍了在Ubuntu 18.04系统上编译安装OpenCV 3.4.0及其扩展包opencv_contrib 3.4.0的详细步骤,包括下载源码、安装依赖、配置CMake和编译安装,以及常见问题的解决方法。
83 1
Ubuntu安装笔记(二):ubuntu18.04编译安装opencv 3.4.0 opencv_contrib3.4.0
|
1月前
|
算法 API 计算机视觉
人脸识别笔记(一):通过yuface调包(参数量54K更快更小更准的算法) 来实现人脸识别
本文介绍了YuNet系列人脸检测算法的优化和使用,包括YuNet-s和YuNet-n,以及通过yuface库和onnx在不同场景下实现人脸检测的方法。
33 1
|
1月前
|
缓存 监控 计算机视觉
视频监控笔记(三):opencv结合ffmpeg获取rtsp摄像头相关信息
本文介绍了如何使用OpenCV结合FFmpeg获取RTSP摄像头信息,包括网络架构、视频监控系统组成、以及如何读取和显示网络摄像头视频流。
41 1
|
1月前
|
Serverless 计算机视觉
语义分割笔记(三):通过opencv对mask图片来画分割对象的外接椭圆
这篇文章介绍了如何使用OpenCV库通过mask图像绘制分割对象的外接椭圆。首先,需要加载mask图像,然后使用`cv2.findContours()`寻找轮廓,接着用`cv2.fitEllipse()`拟合外接椭圆,最后用`cv2.ellipse()`绘制椭圆。文章提供了详细的代码示例,展示了从读取图像到显示结果的完整过程。
45 0
语义分割笔记(三):通过opencv对mask图片来画分割对象的外接椭圆
|
1月前
|
JSON 算法 数据可视化
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
这篇文章是关于如何通过算法接口返回的目标检测结果来计算性能指标的笔记。它涵盖了任务描述、指标分析(包括TP、FP、FN、TN、精准率和召回率),接口处理,数据集处理,以及如何使用实用工具进行文件操作和数据可视化。文章还提供了一些Python代码示例,用于处理图像文件、转换数据格式以及计算目标检测的性能指标。
57 0
测试专项笔记(一): 通过算法能力接口返回的检测结果完成相关指标的计算(目标检测)
|
1月前
|
算法
❤️算法笔记❤️-(每日一刷-160、相交链表)
❤️算法笔记❤️-(每日一刷-160、相交链表)
17 1
|
1月前
|
JSON 数据格式 计算机视觉
Opencv实用笔记(一): 获取并绘制JSON标注文件目标区域(可单独保存目标小图)
本文介绍了如何使用OpenCV和Python根据JSON标注文件获取并绘制目标区域,同时可将裁剪的图像单独保存。通过示例代码,展示了如何读取图片路径、解析JSON标注、绘制标注框并保存裁剪图像的过程。此外,还提供了相关的博客链接,供读者进一步学习。
27 0