Opencv 源码初探

简介: 这篇博客主要是想记录一下关于 opencv 这个库的一些学习心得,并穿插一些图像处理的基本知识。

Opencv 源码初探


序言


这篇博客主要是想记录一下关于 opencv 这个库的一些学习心得,并穿插一些图像处理的基本知识。


分析基于 opencv 4.5.1,其他版本可能会存在一些接口的变动,还请注意。


准备


首先是 opencv 的安装。对于 python 版的 opencv,可以直接使用 pip install 进行安装。对于 C++ 版则可以自己下载源码进行编译与安装。这里介绍在 ubuntu 下如何编译源码:


工具: git、cmake


首先需要下载源码(开源码):


 https://github.com/opencv/opencv


由于 git 可能较慢,linux 或 mac 下可以使用 wget/curl 等指令利用代理进行下载,以加快下载速度。也可以到我分享的网盘下:


链接:https://pan.baidu.com/s/1ZKOH1ehXm3gmU749lwZRlw 
提取码:0wov 


其次是配置,opencv 的配置需要用到 cmake。


mkdir build && cd build // 新建 build 文件夹用于构建
cmake .. // 生成 makefile 文件
make && make install // 编译并安装


注: 编译选项可以在 cmake 生成 Makefile 的时候进行配置。另外由于项目较大,编译耗时较长,也可以加上 -j4 等利用多线程进行编译。


调用 cmake 的时候如果报错提示需要创建另一个文件来存放编译产物这样的信息,可以试下把 CMakeCache.txt 删掉。


安装完毕后,可以先使用简单的 demo 进行测试。

C++:


#include <opencv2/opencv.hpp>
using namespace cv;
int main(int argc, char **argv) {
    /// 将文件的路径传入 opencv 读取
    Mat a = imread(argv[1]);
    imshow("test", a);
    waitKey(0);
    return 0;
}


CMakefile:


cmake_minimum_required(VERSION 2.8)
project( LearnOpenCV ) # 文件名字随便起,和下面对应就行
find_package( OpenCV REQUIRED )
include_directories ( ${OpenCV_INCLUDE_DIRS} )
add_executable( LearnOpenCV test.cpp ) # 输入文件名也要对应
target_link_libraries( LearnOpenCV ${OpenCV_LIBS} )


最后使用 CMake 还有 make 进行编译即可。找一张图片测试下如果能正常展示出来应该就没问题了。当然也可以使用 g++/clang++ 等直接进行编译,但需要注意链接的时候要加上 opencv 的二进制文件。


Arch


opencv 的项目文件结构的安排同样是按照模块进行划分的,源文件基本都放在了 modules 文件夹下。其中,几个重要的模块如下:


1、core,包含一些基本的类定义,比如矩阵类 Mat,以及 mask,blend 操作等

2、imgproc,包含大量图像处理算法,也是这个博客的重点

3、highgui, imgcodecs, videoio,包含图像/视频的编解码等功能

4、feature2d,包含 2d 图像特征检测相关的 api

5、calib3d,3d 摄像机相关的库


对于每个模块,基本的文件结构如下:


1、doc 包含模块相关文档

2、include 包含模块的头文件(.hpp)

3、misc 包含其他语言的一些源文件,包括 python,java,oc 等

4、perf 包含性能测试相关文件

5、src 模块源文件

6、test 包含单元测试相关文件


Read / Write / Show


使用图像前往往对图像进行读取。api 如下:


Mat imread( const String& filename, int flags = IMREAD_COLOR );


对应的实现在 imgcodecs 模块中的 loadsave.cpp 文件中。做一定的检查并初始化一个 Mat 容器,然后调用同一个文件中的 imread_ 函数。化简后的步骤如下:


static bool
imread_( const String& filename, int flags, Mat& mat )
{
    ImageDecoder decoder;
    decoder = findDecoder( filename ); /// 找到一个合适的 decoder 去解析文件
    if( !decoder ){ /// 找不到则返回
        return 0;
    }
    int scale_denom = 1;
    ...
    decoder->setScale( scale_denom ); /// 设置 scale
    decoder->setSource( filename ); /// 设置源文件名
    ...
    /// 确保 decode 的文件大小不会过大
    Size size = validateInputImageSize(Size(decoder->width(), decoder->height()));
    /// 获取 decoder 对应的图片的类型
    int type = decoder->type();
    type = ...
    /// 创建大小为 height * width,类型为 type 的矩阵
    mat.create( size.height, size.width, type );
    /// 读取图片数据
    bool success = false;
    try
    {
        if (decoder->readData(mat))
            success = true;
    }
    catch ...
    if (!success)
    {
        mat.release();
        return false;
    }
    ...
    return true;
}


经过这样一个步骤,图片就会根据具体的类型调用能解码对应类型的图像解码器,readData 将文件读取到矩阵当中。最后返回 true 表示读取成功。每种类型的图片的读取方式都不太相同,但最终都会转化一个矩阵的形式(通常为 BGR 或者灰度图),此后的处理就都是针对矩阵了。


写操作类似,首先是搜索找到一个合适的图像编码器,然后将类型传入,设置好目的文件名,然后具体的写入逻辑就转交给编码器了。


imshow 位于 highgui 模块的 window.cpp 中。定义以下代码所示:


void cv::imshow( const String& winname, InputArray _img )
{
    CV_TRACE_FUNCTION();
    const Size size = _img.size();
#ifndef HAVE_OPENGL
    /// show with cvShowImage
#else
    const double useGl = getWindowProperty(winname, WND_PROP_OPENGL);
    CV_Assert(size.width>0 && size.height>0);
    if (useGl <= 0)
    {
        /// show with cvShowImage
    }
    else
    {
        ...
        setOpenGlContext(winname);
        cv::ogl::Texture2D& tex = ownWndTexs[winname];
        /// copy buffer from image to texture
        if (_img.kind() == _InputArray::CUDA_GPU_MAT)
        {
            cv::ogl::Buffer& buf = ownWndBufs[winname];
            buf.copyFrom(_img);
            buf.setAutoRelease(false);
            tex.copyFrom(buf);
            tex.setAutoRelease(false);
        }
        else
        {
            tex.copyFrom(_img);
        }
        setOpenGlDrawCallback(winname, glDrawTextureCallback, &tex);
        updateWindow(winname);
    }
#endif
}


绘图的逻辑中,总共有两条支线。如果可以使用 opengl,优先使用 opengl 进行绘制(目前默认没有使用 opengl)。如果不支持 opengl,opencv 还提供了 gtk,qt,w32,winrt 等绘图 api。cv 这个命名空间中的几个 cvUpdateWindow, setOpenGlDrawCallback 函数等为空实现。如果配置中选择了相应的库,则加入编译。这样就做到了动态地配置绘图实现方式。


Dip


图像处理涉及到的知识面十分复杂,因此这里仅选择 filter,canny,morphology 三个比较重要的部分,分析源码是如何实现的。


Filter


滤波是图像处理中的一个核心步骤,C++ 层接口如下:


CV_EXPORTS_W void filter2D( InputArray src, OutputArray dst, int ddepth,
                            InputArray kernel, Point anchor = Point(-1,-1),
                            double delta = 0, int borderType = BORDER_DEFAULT );


opencv 中的 filter2D 并不是数学意义上的卷积,而是相关(Correlation)。数学上的卷积需要先对核进行翻转操作。如果核范围超过了图像,则使用给定的 border 模式对图像进行插值。经过数值提取后,函数的实现如下(位于 imgproc 模块的 filter.dispatch.cpp 文件中):


bool res;
res = replacementFilter2D(...);
if (res)
    return;
res = dftFilter2D(...);
if (res)
    return;
ocvFilter2D(...);


可以看到,滤波函数的处理总共有三种分支。第一种是 replacementFilter2D,使用 ipp(Integrated Performance Primitives, 包含一套硬件实现的高速算法)。如果不支持 ipp,则采用第二种方式,即基于 dft(逆傅里叶变换) 的滤波方式。最后在没有其他可行的方式的情况下,才采用最原始的方式进行计算。


ocvFilter2D


ocvFilter2D 中,调用 createLinearFilter 函数创建一个 FilterEngine。


static void ocvFilter2D(...) {
    ...
    Ptr<FilterEngine> f = createLinearFilter(...);
    f->apply(...);
}


createLinearFilter 中又调用了 getLinearFilter 函数获取线性滤波器,然后将其包装在 FilterEngine 内。getLinearFilter 最后又用到了 filter.simd.hpp 中 Filter2D 这个模板类。


apply 函数中调用到了 FilterEngine__apply 函数。先是使用 FilterEngine__start 进行初始化以及校验的工作,然后调用 FilterEngine__proceed,最后调用到的是 Filter2D 的 operator() 实现滤波的(本质上还是两个 for 循环实现的)。


dftFilter2D


使用 dft 版本的 滤波器如下: 首先会根据硬件是否支持以及原矩阵和目标矩阵的类型决定最大的核的大小。如果核很小,则返回 false,表示不采用 dft 方式,最后就会使用线性滤波实现。通常核大于 11 x 11 时就会采用 dft。


条件检查过后,会创建一个新的 temp 矩阵,然后调用 crossCorr 进行计算,最后再将 temp 矩阵拷贝到 dst,然后返回成功信息。


static bool dftFilter2D(...)
{
    {
        ...
        int dft_filter_size = ... ? 130 : 50;
        if (kernel_width * kernel_height < dft_filter_size)
            return false;
        ...
    }
    ...
    // crossCorr doesn't accept non-zero delta with multiple channels
    if (src_channels != 1 && delta != 0) {
        create Mat temp
        crossCorr(src, kernel, temp, anchor, 0, borderType);
        add(temp, delta, temp);
        ...
    } else {
        create Mat tmp
        crossCorr(src, kernel, temp, anchor, delta, borderType);
        ...
    }
    return true;
}


crossCorr 函数的实现在 imgproc module 的 templmatch.cpp 文件中。实现较复杂这里就不再贴上来,基本的思路就是: 计算出一个合适的 dft 后的矩阵大小,将原图像以及核都分别进行 dft 操作,然后在频域空间上进行相乘(调用了 mulSpectrums 函数),最后再使用 idft 还原到原来的大小。其中最复杂的点在于矩阵的大小的确定: 过小会导致精度的丢失,过大则增加了计算的复杂度。最合适的大小在 opencv 中是 hardcode 的:


// 枚举 2^32 以内所有最佳大小,最后使用二分查找计算得到一个最合适的大小
static const int optimalDFTSizeTab[] = {
    1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15, 16, ...}


Medium Filter


中值滤波在图像处理中也比较常见,实现位于 imgproc 模块的 mediun_blur.dispatch.cpp 文件中。


void medianBlur( InputArray _src0, OutputArray _dst, int ksize )
{
    ...
    // 1. 优先使用 opencl, 如果能够成功计算结果则直接返回
    CV_OCL_RUN(_dst.isUMat(),
               ocl_medianFilter(_src0,_dst, ksize))
    Mat src0 = _src0.getMat();
    _dst.create( src0.size(), src0.type() );
    Mat dst = _dst.getMat();
    // 2. 尝试使用 cv_hal_medianBlur 函数进行中值滤波,当前版本下这个函数默认为空。
    // 这里应该是预留了自行定制中值滤波函数的入口
    CALL_HAL(medianBlur, cv_hal_medianBlur, src0.data, src0.step, dst.data, dst.step, src0.cols, src0.rows, src0.depth(),
             src0.channels(), ksize);
    // 3. 尝试使用 openvx 进行中值滤波
    CV_OVX_RUN(true,
               openvx_medianFilter(_src0, _dst, ksize))
    // 4. 最后使用 medianBlur.simd.hpp 进行中值滤波的计算
    CV_CPU_DISPATCH(medianBlur, (src0, dst, ksize),
        CV_CPU_DISPATCH_MODES_ALL);
}


进一步分析,进入 medianBlur.simd.hpp 文件中查看 opencv 内置的中值滤波的实现方式。


void medianBlur(const Mat& src0, /*const*/ Mat& dst, int ksize) {
    ...
    bool useSortNet = ...;
    Mat src;
    if ( useSortNet ) {
        ...
        if( src.depth() == CV_8U )
            medianBlur_SortNet<MinMax8u, MinMaxVec8u>( src, dst, ksize );
        else if( src.depth() == CV_16U )
            medianBlur_SortNet<MinMax16u, MinMaxVec16u>( src, dst, ksize );
        else if( src.depth() == CV_16S )
            medianBlur_SortNet<MinMax16s, MinMaxVec16s>( src, dst, ksize );
        else if( src.depth() == CV_32F )
            medianBlur_SortNet<MinMax32f, MinMaxVec32f>( src, dst, ksize );
        else
            CV_Error(CV_StsUnsupportedFormat, "");
        return;
    } else {
        /// 创建 border
        cv::copyMakeBorder( src0, src, 0, 0, ksize/2, ksize/2, BORDER_REPLICATE|BORDER_ISOLATED);
        if( ksize <= ...) medianBlur_8u_Om( src, dst, ksize );
        else medianBlur_8u_O1( src, dst, ksize );
    }
}


可以看到,中值滤波一共有三个出口。首先根据核的大小(3 或者 5)判断是否使用 SortNet,是则进入 medianBlur_SortNet 方法。然后再次根据核大小判断,核比较小则采用一般的 Om 的一个中值滤波器,核比较大时,则使用一个 O1 的中值滤波器。


下面再进入 medianBlur_SortNet 方法查看实现。可以看到,这里只处理 m = 3 和 m = 5 情况下的中值滤波。同时,这个方法是一个泛型方法,传入的是 Op 和 VecOp 这两个类,分别对应于两个值之间的大小比较以及两个向量之间的大小比较。


template<class Op, class VecOp>
static void
medianBlur_SortNet( const Mat& _src, Mat& _dst, int m )
{
    CV_INSTRUMENT_REGION();
    typedef typename Op::value_type T;
    typedef typename Op::arg_type WT;
    typedef typename VecOp::arg_type VT;
    const T* src = _src.ptr<T>();
    T* dst = _dst.ptr<T>();
    int sstep = (int)(_src.step/sizeof(T));
    int dstep = (int)(_dst.step/sizeof(T));
    Size size = _dst.size();
    int i, j, k, cn = _src.channels();
    Op op;
    VecOp vop;
    if( m == 3 ) {
        if( size.width == 1 || size.height == 1 ) {
            /// 处理极端情况
            return;
        }
        size.width *= cn;
        /// 遍历每一行
        for( i = 0; i < size.height; i++, dst += dstep ) {
            const T* row0 = src + std::max(i - 1, 0)*sstep;
            const T* row1 = src + i*sstep;
            const T* row2 = src + std::min(i + 1, size.height-1)*sstep;
            int limit = cn;
            /// 遍历每一列
            for(j = 0;; ) {
                /// 遍历 cn 个像素点,对每个通道都进行比较得到中值
                for( ; j < limit; j++ )
                {
                    int j0 = j >= cn ? j - cn : j;
                    int j2 = j < size.width - cn ? j + cn : j;
                    WT p0 = row0[j0], p1 = row0[j], p2 = row0[j2];
                    WT p3 = row1[j0], p4 = row1[j], p5 = row1[j2];
                    WT p6 = row2[j0], p7 = row2[j], p8 = row2[j2];
                    /// op(p1, p2) 作用是当 p1 < p2 时交换两个数字
                    op(p1, p2); op(p4, p5); op(p7, p8); op(p0, p1);
                    op(p3, p4); op(p6, p7); op(p1, p2); op(p4, p5);
                    op(p7, p8); op(p0, p3); op(p5, p8); op(p4, p7);
                    op(p3, p6); op(p1, p4); op(p2, p5); op(p4, p7);
                    op(p4, p2); op(p6, p4); op(p4, p2);
                    dst[j] = (T)p4;
                }
                if( limit == size.width )
                    break;
                for( ; j <= size.width - VecOp::SIZE - cn; j += VecOp::SIZE )
                {
                    VT p0 = vop.load(row0+j-cn), p1 = vop.load(row0+j), p2 = vop.load(row0+j+cn);
                    VT p3 = vop.load(row1+j-cn), p4 = vop.load(row1+j), p5 = vop.load(row1+j+cn);
                    VT p6 = vop.load(row2+j-cn), p7 = vop.load(row2+j), p8 = vop.load(row2+j+cn);
                    vop(p1, p2); vop(p4, p5); vop(p7, p8); vop(p0, p1);
                    vop(p3, p4); vop(p6, p7); vop(p1, p2); vop(p4, p5);
                    vop(p7, p8); vop(p0, p3); vop(p5, p8); vop(p4, p7);
                    vop(p3, p6); vop(p1, p4); vop(p2, p5); vop(p4, p7);
                    vop(p4, p2); vop(p6, p4); vop(p4, p2);
                    vop.store(dst+j, p4);
                }
                limit = size.width;
            }
        }
    }
    else if( m == 5 ) {
        /// 类似上面 m == 3 的处理方式,使用尽量少的比较得到中值
    }
}


Op 的实现在同个文件中的 MinMax? 类,? 分别为 8u,16u, 16s, 32f。具体操作是在第一个参数比第一个参数大的时候交换这两个数。注意到 MinMax8u 对应的类中的 operator() 方法有点不同:


int t = CV_FAST_CAST_8U(a - b);
b += t; a -= t;


另外,没有启用 CV_SIMD(Simple instruction multiple data,硬件级别的优化),VecOp 则和 Op 是等价的。这个方法中一个比较大的优化是,使用了循环展开,并用多次 MinMax 操作将获取中值,而不是使用循环遍历,加快了代码的执行速度。


另外一个实现中值滤波的方法 medianBlur_8u_Om 的实现则完全不同。一个比较有趣的点是: 它计算中值的方式是直接统计核覆盖的矩阵中 0 ~ 255 的像素点出现次数。然后只要遍历查看某个 x 的出现次数大于核的大小的一半,结果矩阵中就把 x 填入。这样导致的问题是,最坏情况下每次要遍历 256 个值,因此算法中采用了一个简单的优化: 使用区间统计。用一个新的大小为 16 的数组表示分别表示 [0…15], [16…31]… 的出现次数。这样在寻找中值点的时候速度就要快了很多,最坏情况下只需要遍历 32 个值即可得到中值点。


Canny


Canny 算法是很经典的边缘提取算法,opencv 的 imgproc 模块有一个单独的 canny.cpp 文件负责完成 canny 算法。入口函数如下:


/// src 为输入矩阵,dst 为输出矩阵
/// low_thresh 和 high_thresh 分别为高低阈值
/// aperture_size 为 Sobel 孔径大小(3、5 或 7)
/// L2Gradient 表示是否使用 L2 梯度
void Canny( InputArray _src, OutputArray _dst,
                double low_thresh, double high_thresh,
                int aperture_size, bool L2gradient )
{
    /// 一些基本的条件检查
    const Size size = _src.size();
    ...
    /// 依次尝试使用 opencl,hal,openvx 以及 ipp 完成 Canny 算法的计算,成功会直接返回
    CV_OCL_RUN(...)
    CALL_HAL(...);
    CV_OVX_RUN(...)
    CV_IPP_RUN_FAST(...)
    /// 使用 L2Gradient,需要修正 thresh
    if (L2gradient)
    {
        low_thresh = std::min(32767.0, low_thresh);
        high_thresh = std::min(32767.0, high_thresh);
        if (low_thresh > 0) low_thresh *= low_thresh;
        if (high_thresh > 0) high_thresh *= high_thresh;
    }
    int low = cvFloor(low_thresh);
    int high = cvFloor(high_thresh);
    /// 根据当前的 opencv 中运行的线程数以及 cpu 核的数量计算使用多少个线程去计算 canny
    int numOfThreads = ...;
    Mat map;
    std::deque<uchar*> stack;
    /// 并行计算 canny
    parallel_for_(Range(0, src.rows), parallelCanny(src, map, stack, low, high, aperture_size, L2gradient), numOfThreads);
    /// 进行依次全局的 edge track
    ptrdiff_t mapstep = map.cols;
    while (!stack.empty())
    {
        uchar* m = stack.back();
        stack.pop_back();
        if (!m[-mapstep-1]) CANNY_PUSH((m-mapstep-1), stack);
        if (!m[-mapstep])   CANNY_PUSH((m-mapstep), stack);
        if (!m[-mapstep+1]) CANNY_PUSH((m-mapstep+1), stack);
        if (!m[-1])         CANNY_PUSH((m-1), stack);
        if (!m[1])          CANNY_PUSH((m+1), stack);
        if (!m[mapstep-1])  CANNY_PUSH((m+mapstep-1), stack);
        if (!m[mapstep])    CANNY_PUSH((m+mapstep), stack);
        if (!m[mapstep+1])  CANNY_PUSH((m+mapstep+1), stack);
    }
    /// 最后遍历一遍 map,将 map 中标记为 edge 的点转成 255,其余点转成 0
    parallel_for_(Range(0, src.rows), finalPass(map, dst), src.total()/(double)(1<<16));
}


可以看到,核心的计算函数就是 parallelCanny,利用多线程进行计算,计算的流程可以拆分成下面几个步骤(不考虑 SIMD 的情况下,考虑 SIMD 的话部分代码会有些不同)。


sobel 算子


canny 的第一步是使用 sobel 算子计算每个点在 x,y 方向上的梯度,核心的两个函数调用如下:


if(needGradient)
{
    Sobel(src.rowRange(rowStart, rowEnd), dx, CV_16S, 1, 0, aperture_size, scale, 0, BORDER_REPLICATE);
    Sobel(src.rowRange(rowStart, rowEnd), dy, CV_16S, 0, 1, aperture_size, scale, 0, BORDER_REPLICATE);
}


根据给定的参数,参与计算的 sobel 的核为:


kernelX = [[-1, 0, 1]]
kernelY = [[-1],[0],[1]]


计算的结果保存在 dx,dy 这两个矩阵中。


Edge detect


为了更好地利用空间,此处使用了循环 buffer 来保存图像中每一行中各个点的强度(magnitude)大小。mag_a 表示当前行,mag_p 表示上一行,mag_n 表示下一行。


AutoBuffer<int> buffer(3 * (mapstep * cn));
_mag_p = buffer.data() + 1;
_mag_a = _mag_p + mapstep * cn;
_mag_n = _mag_a + mapstep * cn;


接下来遍历线程所负责的每一行,计算 magnitude 的大小。然后再进行非极大值抑制,得到每个点是否属于 edge 的相关信息。用矩阵 pmap 表示,每个点 2 表示这个点是边,1 表示这个点不可能是边,0 表示这个点可能是边。


/// rowStart 和 end 分别表示当前线程所负责的图像的行
for (int i = rowStart; i <= boundaries.end; ++i) {
    /*  计算 magnitude 部分  */
    /// 计算下一行的 magnitude
    if(i < rowEnd) {
        _dx = dx.ptr<short>(i - rowStart);
        _dy = dy.ptr<short>(i - rowStart);
        /// 使用 L2 计算梯度
        if (L2gradient)
        {
            int j = 0, width = src.cols * cn;
            for ( ; j < width; ++j)
                _mag_n[j] = int(_dx[j])*_dx[j] + int(_dy[j])*_dy[j];
        } else { /// 使用 L1 计算梯度
            int j = 0, width = src.cols * cn;
            for ( ; j < width; ++j)
                _mag_n[j] = std::abs(int(_dx[j])) + std::abs(int(_dy[j]));
        }
        ...
    } else {
        ...
    }
    ...
    /*  非极大值抑制部分  */
    /// tan22 大小为 13573/(1<<16),用整数提高精度
    const int TG22 = 13573;
    int j = 0;
    for (; j < src.cols; j++) {
        int m = _mag_a[j];
        if (m > low) {
            short xs = _dx[j];
            short ys = _dy[j];
            int x = (int)std::abs(xs);
            int y = (int)std::abs(ys) << 15;
            int tg22x = x * TG22;
            /// 梯度位于水平方向上
            if (y < tg22x)
            {
                if (m > _mag_a[j - 1] && m >= _mag_a[j + 1])
                {
                    /// 判断点的梯度是否大于阈值 high,若是则 push 进堆栈,同时 pmap 设为 0
                    /// 下面类似
                    CANNY_CHECK(m, high, (_pmap+j), stack);
                    continue;
                }
            }
            else
            {
                /// 梯度位于垂直方向上
                int tg67x = tg22x + (x << 16);
                if (y > tg67x)
                {
                    if (m > _mag_p[j] && m >= _mag_n[j])
                    {
                        CANNY_CHECK(m, high, (_pmap+j), stack);
                        continue;
                    }
                }
                else
                {
                    /// 梯度位于斜方向上
                    int s = (xs ^ ys) < 0 ? -1 : 1;
                    if(m > _mag_p[j - s] && m > _mag_n[j + s])
                    {
                        CANNY_CHECK(m, high, (_pmap+j), stack);
                        continue;
                    }
                }
            }
        }
        _pmap[j] = 1;
    }
}


Edge track


前面的函数中,已经计算得到了 pmap 表示每个结点是否可能为边这样的信息。双阈值要求算法需要对于可能为边的结点,仅当周围八个点中存在一定为边的结点才能计为边,否则当前点不属于边。因此,算法使用了栈这样的数据结构来实现,所有一定为边的结点入栈,处理每个结点时周围八个结点如果存在可能为边的结点,则标记为边并入栈,直到栈为空。


while (!stack.empty())
{
    uchar *m = stack.back();
    stack.pop_back();
    if(/* 不是位于边界 */ (unsigned)(m - pmapLower) < pmapDiff) {
        if (!m[-mapstep-1]) CANNY_PUSH((m-mapstep-1), stack);
        if (!m[-mapstep])   CANNY_PUSH((m-mapstep), stack);
        if (!m[-mapstep+1]) CANNY_PUSH((m-mapstep+1), stack);
        if (!m[-1])         CANNY_PUSH((m-1), stack);
        if (!m[1])          CANNY_PUSH((m+1), stack);
        if (!m[mapstep-1])  CANNY_PUSH((m+mapstep-1), stack);
        if (!m[mapstep])    CANNY_PUSH((m+mapstep), stack);
        if (!m[mapstep+1])  CANNY_PUSH((m+mapstep+1), stack);
    } else {
        /// 处理边界情况
    }
}


上边步骤结束后,由于只在局部进行了 edge track 的操作,边界上可能还会有些问题,因此 opencv 的 canny 算法还增加了一个全局的 track 操作,代码和上方类似,不再赘述。


Final pass


最后的一个步骤就是把 pmap 中标记为 2 的点映射到 255,0 或 1 则映射到 0。代码如下:


// the final pass, form the final image
for (int i = boundaries.start; i < boundaries.end; i++)
{
    int j = 0;
    uchar *pdst = dst.ptr<uchar>(i);
    const uchar *pmap = map.ptr<uchar>(i + 1);
    pmap += 1;
    for (; j < dst.cols; j++)
    {
        pdst[j] = (uchar)-(pmap[j] >> 1);
    }
}


注意到代码中 pmap+1 是因为 pmap 在原图像基础上加上了一个宽度为 1 的边界。

uchar 则表示 uchar 类型的 0,pmap[j] >> 1 后仅当 pmap[j] = 2 时才为 1,因此最后就将 2 映射到了 255(白色), 0/1 映射到了 0(黑色),即得到了边界提取后的图像。


Morph


morph.dispatch.cpp 类中提供了一个构造形态学操作的核的一个方法,如下:


Mat getStructuringElement(int shape, Size ksize, Point anchor)
{
    int i, j;
    int r = 0, c = 0;
    double inv_r2 = 0;
    anchor = normalizeAnchor(anchor, ksize);
    if( ksize == Size(1,1) )
        shape = MORPH_RECT;
    if( shape == MORPH_ELLIPSE )
    {
        r = ksize.height/2;
        c = ksize.width/2;
        inv_r2 = r ? 1./((double)r*r) : 0;
    }
    Mat elem(ksize, CV_8U);
    for( i = 0; i < ksize.height; i++ )
    {
        uchar* ptr = elem.ptr(i);
        int j1 = 0, j2 = 0;
        /// 形状为矩形或者十字刚好处于横着的那一行时,直接填充一整行
        if( shape == MORPH_RECT || (shape == MORPH_CROSS && i == anchor.y) )
            j2 = ksize.width;
        else if( shape == MORPH_CROSS )
            j1 = anchor.x, j2 = j1 + 1;
        else
        {
            int dy = i - r;
            if( std::abs(dy) <= r )
            {
                /// 计算近似的椭圆的宽度
                int dx = saturate_cast<int>(c*std::sqrt((r*r - dy*dy)*inv_r2));
                j1 = std::max( c - dx, 0 );
                j2 = std::min( c + dx + 1, ksize.width );
            }
        }
        /// 填充 j1 ~ j2 区间内的数字
        for( j = 0; j < j1; j++ )
            ptr[j] = 0;
        for( ; j < j2; j++ )
            ptr[j] = 1;
        for( ; j < ksize.width; j++ )
            ptr[j] = 0;
    }
    return elem;
}


可以看到总共有三种形状的核,分别对应如下:


20210420101831549.png


注意到上图是以中点为中心(Anchor) 的,也可以以其他点为中心的操作(相当于对图像做了偏移)。


另外,各种形态学相关操作最后基本都转化为 erode 和 dilate 操作。几种常见的形态学操作如下(位于 morph.dispatch.cpp 文件中的 morphologyEx 方法中):


switch( op )
{
case MORPH_ERODE: /// 腐蚀操作
    erode( src, dst, kernel, anchor, iterations, borderType, borderValue );
    break;
case MORPH_DILATE: /// 扩张操作
    dilate( src, dst, kernel, anchor, iterations, borderType, borderValue );
    break;
case MORPH_OPEN: /// 开操作
    erode( src, dst, kernel, anchor, iterations, borderType, borderValue );
    dilate( dst, dst, kernel, anchor, iterations, borderType, borderValue );
    break;
case MORPH_CLOSE: /// 闭操作
    dilate( src, dst, kernel, anchor, iterations, borderType, borderValue );
    erode( dst, dst, kernel, anchor, iterations, borderType, borderValue );
    break;
case MORPH_GRADIENT: /// 梯度计算操作
    erode( src, temp, kernel, anchor, iterations, borderType, borderValue );
    dilate( src, dst, kernel, anchor, iterations, borderType, borderValue );
    dst -= temp;
    break;
case MORPH_TOPHAT: /// 顶帽操作
    if( src.data != dst.data )
        temp = dst;
    erode( src, temp, kernel, anchor, iterations, borderType, borderValue );
    dilate( temp, temp, kernel, anchor, iterations, borderType, borderValue );
    dst = src - temp;
    break;
case MORPH_BLACKHAT: /// 黑帽操作
    if( src.data != dst.data )
        temp = dst;
    dilate( src, temp, kernel, anchor, iterations, borderType, borderValue );
    erode( temp, temp, kernel, anchor, iterations, borderType, borderValue );
    dst = temp - src;
    break;
...
}


dilate 和 erode 两个操作统一用到了 morphOp 方法。接着调用到 morph 方法。这个方法中会提供一个空的 cv_hal_morph 方法供用户自行定义 morph 方法的实现。若没有自己定义的实现,则调用 opencv 内置提供的 ocvMorph 方法。和其他滤波器类似,在该方法中,调用了 createMorphologyFilter 得到一个 FilterEngine,最后调用 apply 方法进行计算。最后实际进行图形学滤波运算的是 MorphFilter 这样一个模板类:


template<class Op, class VecOp> struct MorphFilter : BaseFilter
{
    typedef typename Op::rtype T;
    MorphFilter( const Mat& _kernel, Point _anchor ) { ... }
    void operator()(const uchar** src, uchar* dst, int dststep, int count, int width, int cn) CV_OVERRIDE
    {
        ...
        width *= cn;
        /// 遍历每一行
        for( ; count > 0; count--, dst += dststep, src++ )
        {
            ...
            /// 遍历每一列
            for( ; i < width; i++ )
            {
                T s0 = kp[0][i];
                /// 滤波操作
                for( k = 1; k < nz; k++ )
                    s0 = op(s0, kp[k][i]);
                D[i] = s0;
            }
        }
    }
};


对于 erode 和 dilate 两种操作,只需要分别传入 MinOp(返回值更小的那个) 和 MaxOp(返回值更大的那个) 即可。以 erode 为例,传入 MinOp 之后,对于核上每一个为 1 的点,覆盖到图像上的对应位置也必须为 1,否则由于 min 操作的特性,只要有一个是 0 最后的结果就会是 0,这个操作的结果就是,将核中心放在结果图像上任意一个为 1 的点,都能够被原图像包裹,即结果图像是源图像的腐蚀。膨胀则使用最大值,分析类似。


Python extension


opencv 的代码是由 C++ 编写的,但它同时也提供了 python 的库,这是怎么做到的呢?这就是 python 的扩展了。官方文档中提供了一个 Python.h 的库给开发者使用,里面提供了各种各样的用于 C++ 和 python 交互的 api,例如:


PyModule_Create  /// 创建一个 python module
PyModule_AddObject  /// 往 module 中添加一个对象
PyModule_AddIntConstant  /// 往 module 中添加 int 常量
PyModule_AddStringConstant  /// 往 module 中添加一个 string 常量
Py_DECREF /// 回收一个 python 对象
PyObject_Call  /// 调用一个 python 函数并返回结果的指针
...


这样,对于每个需要暴露给 python 的 C++ 方法,只需要创建一个包装方法(包装类),最后将结果作为一个 python 对象返回即可,类似下面的代码:


static PyObject *
spam_system(PyObject *self, PyObject *args)
{
    const char *command;
    int sts;
    if (!PyArg_ParseTuple(args, "s", &command))
        return NULL;
    sts = system(command);
    return PyLong_FromLong(sts);
}


然后,需要再加入 PyInit_xxx 名字的类,进行 module 的创建工作。编译完成后,启动 python,调用 import 后 python 解释器会找到 PyInit_cv2 这样的名字的函数并调用这个方法,我们就只要在这个方法内部创建 module 以及添加模块内的方法即可。


opencv 中,init 函数位于 python module 下的 cv2.cpp 文件中:


PyObject* PyInit_cv2() {
    import_array(); // from numpy
    PyObject* m = PyModule_Create(&cv2_moduledef);
    if (!init_body(m))
        return NULL;
    return m;
}


nit_body 函数中,依次创建每一个子模块并把函数签名传入。


包装类和包装方法则是由 python 模块下的 gen2.py 和 hdr_parser.py 生成的,在编译期间会自动运行这两个函数以生成转换代码。gen2.py 调用 hdr_parser.py 依次解析每个模块对应的头文件,根据 CV_EXPORTS_W,CV_WRAP 等宏标识某个函数/类是否需要生成中间转换代码。编译生成完毕后,运行期间就由 python 解释器自己查找对应的函数区执行了。


相关文章
|
6月前
|
算法 API 计算机视觉
[opencv学习笔记] jiazhigang 30讲源码C++版本(含Makefile)
[opencv学习笔记] jiazhigang 30讲源码C++版本(含Makefile)
68 0
|
6月前
|
算法 计算机视觉 开发者
OpenCV中使用Eigenfaces人脸识别器识别人脸实战(附Python源码)
OpenCV中使用Eigenfaces人脸识别器识别人脸实战(附Python源码)
316 0
|
12天前
|
机器学习/深度学习 监控 算法
基于计算机视觉(opencv)的运动计数(运动辅助)系统-源码+注释+报告
基于计算机视觉(opencv)的运动计数(运动辅助)系统-源码+注释+报告
28 3
|
6月前
|
计算机视觉 Python
OpenCV获取视频文件的属性并动态显示实战(附Python源码)
OpenCV获取视频文件的属性并动态显示实战(附Python源码)
105 0
|
16天前
|
缓存 并行计算 Ubuntu
Jetson 学习笔记(十一):jetson agx xavier 源码编译ffmpeg(3.4.1)和opencv(3.4.0)
本文是关于在Jetson AGX Xavier上编译FFmpeg(3.4.1)和OpenCV(3.4.0)的详细教程,包括编译需求、步骤、测试和可能遇到的问题及其解决方案。还提供了Jetson AGX Xavier编译CUDA版本的OpenCV 4.5.0的相关信息。
44 4
Jetson 学习笔记(十一):jetson agx xavier 源码编译ffmpeg(3.4.1)和opencv(3.4.0)
|
16天前
|
Ubuntu 应用服务中间件 nginx
Ubuntu安装笔记(三):ffmpeg(3.2.16)源码编译opencv(3.4.0)
本文是关于Ubuntu系统中使用ffmpeg 3.2.16源码编译OpenCV 3.4.0的安装笔记,包括安装ffmpeg、编译OpenCV、卸载OpenCV以及常见报错处理。
71 2
Ubuntu安装笔记(三):ffmpeg(3.2.16)源码编译opencv(3.4.0)
|
4天前
|
Ubuntu 编译器 计算机视觉
Ubuntu系统编译OpenCV4.8源码
【10月更文挑战第17天】只要三步即可搞定,第一步是下载指定版本的源码包;第二步是安装OpenCV4.8编译需要的编译器与第三方库支持;第三步就是编译OpenCV源码包生成安装文件并安装。
25 4
|
4月前
|
Ubuntu 编译器 计算机视觉
Ubuntu系统下编译OpenCV4.8源码
在Ubuntu上源码安装OpenCV 4.8分为三步:1) 下载源码包,使用`wget`命令;2) 安装依赖,如`g++`, `cmake`, `make`等;3) 创建编译目录,运行`cmake`配置,接着`make`编译,最后`sudo make install`安装。安装完成后,通过编写和运行一个简单的OpenCV C++程序来验证环境配置正确性。
122 10
|
4月前
|
计算机视觉 iOS开发 C++
【OpenCV】在MacOS上源码编译OpenCV
【7月更文挑战第9天】在MacOS上源码编译OpenCV需分步进行: 1. 准备工作: 安装Xcode, Command Line Tools及依赖如CMake, Homebrew. 2. 获取OpenCV源码: 从官网下载并解压所需版本. 3. 编译OpenCV. 4. 安装OpenCV: 编译后使用`sudo make install`进行安装. 5. 验证安装: 编写简单C++程序测试OpenCV功能, 如读取并显示图片.
125 1
|
6月前
|
XML 算法 计算机视觉
使用OpenCV进行人脸检测和戴墨镜特效实战(附Python源码)
使用OpenCV进行人脸检测和戴墨镜特效实战(附Python源码)
293 1