OpenCV 单应矩阵应用:全景图像融合原理

简介: 之前的写了好几篇文,什么特征点检测,匹配,RANSAC之类的乱七八糟的,就是为了做这个应用。了解原理之后用NI Vision实现,数图的课程设计算是交差了~~全景图像融合使用到SIFT算子(特征点检测和匹配)、单应矩阵(立体几何)和RANSAC(随机抽样一致性)之类的内容,了解其中的领域和原理还是需要花点时间的。

之前的写了好几篇文,什么特征点检测,匹配,RANSAC之类的乱七八糟的,就是为了做这个应用。了解原理之后用NI Vision实现,数图的课程设计算是交差了~~全景图像融合使用到SIFT算子(特征点检测和匹配)、单应矩阵(立体几何)和RANSAC(随机抽样一致性)之类的内容,了解其中的领域和原理还是需要花点时间的。


img_6030fe7ecc2b67e0d8c4f0b17afedbe3.png
霸气侧漏的全景图

1.单应矩阵

img_d0e5cfb06c2fca5be911c2378c160516.png
X是空间中的一点,左右两边是射影平面(摄像头)

单应(Homography)是射影几何中的概念,又称为 射影变换。它把一个射影平面上的点(三维齐次矢量)映射到另一个射影平面上。单应是关于三维齐次矢量的一种线性变换,可以用一个3×3的非奇异矩阵H表示,这个矩阵H称为 单应矩阵。使用这个矩阵,就可以将射影平面上的一个点投影到另一个平面上(图中的 m 投影到 m‘)。
img_5b55ddedfa372128585728229d8209ea.png
线性变换

平面上的点为三维齐次矢量,即
img_78d8f49d1f7fa0b8519dac149c2b58ee.png
单应矩阵H可以将两幅图像关联起来

2.与基础矩阵的区别

基础矩阵体现的是两个图像间的对极约束(详细见我之前的一篇文章)。两个图像之间的对极约束与场景的结构无关,也就是说你拍摄的物体可以是一个球,或者其他奇形怪状的物体。基础矩阵不能给出两幅图像的像点的一一对应的关系,只能给出像点到另一幅图像的对极线的映射关系。

基础矩阵F描述的实际是一种点和线的映射关系,而不是点对点的关系,不能给出另一个点的确切位置。

也就说,三维点如果不是在同一个平面上,可以使用基础矩阵F来计算图像上像点在另一幅图像上对应的对极线,而不能使用单应矩阵H得到对应点的确切位置。在实际应用中,当被拍摄物体深度Z比较大的时候,可以视为一个平面来处理,也可以使用单应矩阵来进行点对点的映射。

从公式推导中,我们可以得到,当射影平面之间只有旋转无平移时,也可以使用单应矩阵来进行映射,这里不进行推导。

如果拍摄物体不为平面(或不能视为平面来处理)并且射影平面之间不只有旋转关系时时,强行估算单应矩阵,会产生巨大偏差。

假设强行使用单应矩阵

img_d9b205a7cb73b0e5e6deb8949b5c4b58.png
p'应映射到x2',但被映射到了x2

通过平面P上的匹配点得到了单应矩阵H之后,再用来估计不在平面P上的点 p' 的位置,就会出现这样的情况。

3.通过匹配点来计算单应矩阵

关于特征点匹配的内容可以看我之前的文章(为了今天算是磨刀三月- -),为了提高匹配准确率,这里使用的是SIFT算子配合上RANSAC算法的方式进行估计。

两图像上的像点 p1(x1,y1) p2(x2,y2) 是一对匹配的点对,其单应矩阵为H,则有

img_d4362104ef3f8b9dfed433d0f092c868.png
矩阵形式

展开得

img_23825060d67e52ccdcdd81337d42db17.png
第三个方程为约束条件

那么就至少需要4对匹配点(4个方程组)进行计算(任意三点不共线)

4.代码实现

/********************************************************************
 * Created by 杨帮杰 on 10/12/18
 * Right to use this code in any way you want without
 * warranty, support or any guarantee of it working
 * E-mail: yangbangjie1998@qq.com
 * Association: SCAU 华南农业大学
 ********************************************************************/

#include <iostream>
#include <vector>
#include <opencv2/core.hpp>
#include <opencv2/imgproc.hpp>
#include <opencv2/highgui.hpp>
#include <opencv2/features2d.hpp>
#include <opencv2/calib3d.hpp>
#include <opencv2/xfeatures2d.hpp>
#include <opencv2/stitching.hpp>

#define PARLIAMENT01 "/home/jacob/图片/images/parliament1.jpg"
#define PARLIAMENT02 "/home/jacob/图片/images/parliament2.jpg"

using namespace cv;
using namespace std;

int main()
{
    Mat image1= imread(PARLIAMENT01,0);
    Mat image2= imread(PARLIAMENT02,0);
    if (!image1.data || !image2.data)
        return 0;

    imshow("Image 1",image1);
    imshow("Image 2",image2);

    vector<KeyPoint> keypoints1;
    vector<KeyPoint> keypoints2;
    Mat descriptors1, descriptors2;

    //创建SIFT检测器
    Ptr<Feature2D> ptrFeature2D = xfeatures2d::SIFT::create(74);

    //检测SIFT特征并生成描述子
    ptrFeature2D->detectAndCompute(image1, noArray(), keypoints1, descriptors1);
    ptrFeature2D->detectAndCompute(image2, noArray(), keypoints2, descriptors2);

    cout << "Number of feature points (1): " << keypoints1.size() << endl;
    cout << "Number of feature points (2): " << keypoints2.size() << endl;

    //使用欧氏距离和交叉匹配策略进行图像匹配
    BFMatcher matcher(NORM_L2, true);
    vector<DMatch> matches;
    matcher.match(descriptors1,descriptors2,matches);

    Mat imageMatches;
    drawMatches(image1,keypoints1,  // 1st image and its keypoints
                image2,keypoints2,  // 2nd image and its keypoints
                matches,            // the matches
                imageMatches,       // the image produced
                Scalar(255,255,255),  // color of the lines
                Scalar(255,255,255),  // color of the keypoints
                vector<char>(),
                2);

    imshow("Matches (pure rotation case)",imageMatches);

    //将keypoints类型转换为Point2f
    vector<Point2f> points1, points2;
    for (vector<DMatch>::const_iterator it= matches.begin();
         it!= matches.end(); ++it)
    {
        float x= keypoints1[it->queryIdx].pt.x;
        float y= keypoints1[it->queryIdx].pt.y;
        points1.push_back(Point2f(x,y));

        x= keypoints2[it->trainIdx].pt.x;
        y= keypoints2[it->trainIdx].pt.y;
        points2.push_back(Point2f(x,y));
    }

    cout << "number of points: " << points1.size() << " & " << points2.size() << endl;

    //使用RANSAC算法估算单应矩阵
    vector<char> inliers;
    Mat homography= findHomography(
                    points1,points2, // corresponding points
                    inliers,         // outputed inliers matches
                    RANSAC,      // RANSAC method
                    1.);             // max distance to reprojection point

    //画出局内匹配项
    drawMatches(image1, keypoints1,  // 1st image and its keypoints
                image2, keypoints2,  // 2nd image and its keypoints
                matches,            // the matches
                imageMatches,       // the image produced
                Scalar(255, 255, 255),  // color of the lines
                Scalar(255, 255, 255),  // color of the keypoints
                inliers,
                2);

    imshow("Homography inlier points", imageMatches);

    //用单应矩阵对图像进行变换
    Mat result;
    warpPerspective(image1, // input image
                    result,         // output image
                    homography,     // homography
                    Size(2*image1.cols,image1.rows)); // size of output image

    //拼接
    Mat half(result,Rect(0,0,image2.cols,image2.rows));
    image2.copyTo(half);

    imshow("Image mosaic",result);

    waitKey();
    return 0;
}

结果如下

img_395817e9ddb9fa537af7a9d38ab50756.png
兴趣点匹配

img_5d5d088ed76258a3a1b450035444ea76.png
拼接结果

可以看到通过变换视角,可以对图像进行拼接。当然距离真正的全景图像的合成还有点距离,比如说有明显边界,扭曲严重等问题。OpenCV3中提供了一个函数叫stitcher,可以得到比较好的拼接效果。接下来的一段时间就需要我去研究一下里面的实现了,敬请期待吧 →_→!

References:
SLAM入门之视觉里程计(5):单应矩阵
Opencv Sift和Surf特征实现图像无缝拼接生成全景图像
opencv计算机视觉编程攻略(第三版) —— Robert Laganiere

目录
相关文章
|
3月前
|
文字识别 计算机视觉 开发者
基于QT的OCR和opencv融合框架FastOCRLearn实战
本文介绍了在Qt环境下结合OpenCV库构建OCR识别系统的实战方法,通过FastOCRLearn项目,读者可以学习Tesseract OCR的编译配置和在Windows平台下的实践步骤,文章提供了技术资源链接,帮助开发者理解并实现OCR技术。
174 9
基于QT的OCR和opencv融合框架FastOCRLearn实战
|
2月前
|
计算机视觉
Opencv学习笔记(三):图像二值化函数cv2.threshold函数详解
这篇文章详细介绍了OpenCV库中的图像二值化函数`cv2.threshold`,包括二值化的概念、常见的阈值类型、函数的参数说明以及通过代码实例展示了如何应用该函数进行图像二值化处理,并展示了运行结果。
528 0
Opencv学习笔记(三):图像二值化函数cv2.threshold函数详解
|
3月前
|
算法 计算机视觉
opencv图像形态学
图像形态学是一种基于数学形态学的图像处理技术,它主要用于分析和修改图像的形状和结构。
55 4
|
2月前
|
机器学习/深度学习 API 计算机视觉
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(下)
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(下)
35 2
|
3月前
|
存储 计算机视觉
Opencv的基本操作(一)图像的读取显示存储及几何图形的绘制
本文介绍了使用OpenCV进行图像读取、显示和存储的基本操作,以及如何绘制直线、圆形、矩形和文本等几何图形的方法。
Opencv的基本操作(一)图像的读取显示存储及几何图形的绘制
|
2月前
|
机器学习/深度学习 存储 算法
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(上)
基于Python_opencv人脸录入、识别系统(应用dlib机器学习库)(上)
51 1
|
4月前
|
算法 计算机视觉 Python
python利用opencv进行相机标定获取参数,并根据畸变参数修正图像附有全部代码(流畅无痛版)
该文章详细介绍了使用Python和OpenCV进行相机标定以获取畸变参数,并提供了修正图像畸变的全部代码,包括生成棋盘图、拍摄标定图像、标定过程和畸变矫正等步骤。
python利用opencv进行相机标定获取参数,并根据畸变参数修正图像附有全部代码(流畅无痛版)
|
4月前
|
计算机视觉 C++
基于VS2019和Opencv4,对hsv颜色空间的图像分割原理以及实现
这篇文章介绍了基于HSV颜色空间的图像分割原理,包括HSV模型的基本概念和如何在OpenCV中通过设置HSV的色彩范围来实现图像中特定颜色的物体分割,并通过示例代码展示了在静态图像和视频流中进行颜色分割的方法。
基于VS2019和Opencv4,对hsv颜色空间的图像分割原理以及实现
WK
|
4月前
|
编解码 计算机视觉 Python
如何在OpenCV中进行图像转换
在OpenCV中,图像转换涉及颜色空间变换、大小调整及类型转换等操作。常用函数如`cvtColor`可实现BGR到RGB、灰度图或HSV的转换;`resize`则用于调整图像分辨率。此外,通过`astype`或`convertScaleAbs`可改变图像数据类型。对于复杂的几何变换,如仿射或透视变换,则可利用`warpAffine`和`warpPerspective`函数实现。这些技术为图像处理提供了强大的工具。
WK
130 1
|
5月前
|
机器学习/深度学习 XML 计算机视觉
OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和机器学习库,它提供了大量的函数和工具,用于处理图像和视频数据。
OpenCV(Open Source Computer Vision Library)是一个开源的计算机视觉和机器学习库,它提供了大量的函数和工具,用于处理图像和视频数据。
下一篇
DataWorks