AVX 指令集并行技术优化中值滤波

简介: AVX 指令集并行技术优化中值滤波

利用 AVX 向量化技术优化的中值滤波

代码和注释如下:

void medianFilterAVX(int height, int width, unsigned char *__restrict src, unsigned char *__restrict  dst)
{
  // 注意是从 1 开始
    for(int i = 1; i < height - 1; i++)
    {
        int j;
    // 4字节*8 = 32
        for(j = 1; j < width - 1 - 32; j += 32)
        {
            __m256i a[9]; // 3*3 的领域
            a[0] = _mm256_loadu_si256((__m256i *)(src + i * width + j)); // 非对齐模式加载8 个 int 型
            a[1] = _mm256_loadu_si256((__m256i *)(src + i * width + j + 1));
            a[2] = _mm256_loadu_si256((__m256i *)(src + i * width + j - 1));
            a[3] = _mm256_loadu_si256((__m256i *)(src + (i + 1) * width + j));
            a[4] = _mm256_loadu_si256((__m256i *)(src + (i + 1) * width + j + 1));
            a[5] = _mm256_loadu_si256((__m256i *)(src + (i + 1) * width + j - 1));
            a[6] = _mm256_loadu_si256((__m256i *)(src + (i - 1) * width + j));
            a[7] = _mm256_loadu_si256((__m256i *)(src + (i - 1) * width + j + 1));
            a[8] = _mm256_loadu_si256((__m256i *)(src + (i - 1) * width + j - 1));
      // 因为只要知道中值就好(a[4])
            for( int ji = 0; ji < 5; ji++)
            {
                for( int k = ji + 1; k < 9; k++)
                {
          // 逐字节的比较(32个字节)
                    __m256i large = _mm256_max_epu8(a[ji], a[k]);
                    __m256i small = _mm256_min_epu8(a[ji], a[k]);
                    a[ji] = small;
                    a[k] = large;
                }
            }
            _mm256_storeu_si256((__m256i *)(dst + i * width + j), a[4]);// 非对齐模式存储8 个 int 型
        }
    // 不能被 32 整除的部分
        for(int je = j; je < width - 1; je++)
        {
            unsigned char a[9];
            a[0] = src[i * width + je];
            a[1] = src[i * width + je + 1];
            a[2] = src[i * width + je - 1];
            a[3] = src[(i + 1) * width + je];
            a[4] = src[(i + 1) * width + je + 1];
            a[5] = src[(i + 1) * width + je - 1];
            a[6] = src[(i - 1) * width + je];
            a[7] = src[(i - 1) * width + je + 1];
            a[8] = src[(i - 1) * width + je - 1];
            for( int ji = 0; ji < 5; ji++)
            {
                for( int jj = ji + 1; jj < 9; jj++)
                {
                    unsigned char large = std::max<unsigned char>(a[ji], a[jj]);
                    unsigned char small = std::min<unsigned char>(a[ji], a[jj]);
                    a[ji] = small;
                    a[jj] = large;
                }
            }
            dst[i * width + je] = a[4];
        }
    }
    // 边界处理:直接拷贝
    for( int i = 0; i < width; i++)
    {
        dst[i] = src[i];
        dst[(height - 1)*width + i] = src[(height - 1) * width + i];
    }
    for(int i = 0; i < height; i++)
    {
        dst[i * width] = src[i * width];
        dst[i * width + width - 1] = src[i * width + width - 1];
    }
}

入口函数:

cv::Mat input = imread("micky.png", cv::IMREAD_GRAYSCALE);
cv::Mat scale;
cv::resize(input, scale, cv::Size(3200, 3200));// 为了使得优化效果更明显
int width = scale.cols;
int height = scale.rows;
cv::Mat output = cv::Mat(cv::Size(width, height), CV_8UC1, cv::Scalar(0));
Timer timer;
//meanFilter(scale.data, output.data, width, height);
medianFilter(height, width, scale.data, output.data);
timer.rlog("时间");
timer.restart();
medianFilterAVX(height, width, scale.data, output.data);
timer.rlog("时间");

和串行版本的比较结果如下:提升了将近 19 倍

image.png

目录
相关文章
AVX 指令集并行技术优化积分计算圆周率 π
AVX 指令集并行技术优化积分计算圆周率 π
125 0
AVX 指令集并行技术优化积分计算圆周率 π
不同CPU指令的指令集密度
不同CPU指令的指令集密度
159 0
不同CPU指令的指令集密度
|
缓存 openCL 算法
关于实现Halcon算法加速的基础知识(2)(多核并行/GPU)
关于实现Halcon算法加速的基础知识(多核并行/GPU)
3449 0
关于实现Halcon算法加速的基础知识(2)(多核并行/GPU)
|
算法 安全 程序员
关于实现Halcon算法加速的基础知识(1)(多核并行/GPU)
关于实现Halcon算法加速的基础知识(多核并行/GPU)
1342 0
关于实现Halcon算法加速的基础知识(1)(多核并行/GPU)
|
9月前
|
存储 编译器 数据处理
CPU架构和指令集
不同的CPU架构通常使用不同的指令集。每种CPU架构都有其自己的一组特定的机器指令,这些指令用于执行计算机程序。不同的CPU架构之间的指令集是不兼容的,这意味着编写的程序通常需要根据目标CPU的架构进行编译或汇编,以确保它们能够在该CPU上正确运行。 一些常见的CPU架构包括:
|
存储 机器学习/深度学习 编译器
MNN卷积性能提升90%!ARMv86正式投用
ARMv86指令集新增了通用矩阵乘指令与bf16的支持,这些指令理论性能是ARMv82sdot的2倍;使用这些指令实现int8/bf16矩阵乘能够带来显著的性能提升。本文使用ARMv86的新增指令对MNN的ConvInt8和MatMul算子进行实现,最高得到了大约90%的性能提升。
950 0
MNN卷积性能提升90%!ARMv86正式投用
|
机器学习/深度学习 人工智能 自然语言处理
AICompiler编译器介绍及访存密集算子优化
欢迎走进阿里云机器学习PAI AICompiler编译器系列。随着AI模型结构的快速演化,底层计算硬件的层出不穷,用户使用习惯的推陈出新,单纯基于手工优化来解决AI模型的性能和效率问题越来越容易出现瓶颈。为了应对这些问题,AI编译优化技术已经成为一个获得广泛关注的技术方向。这两年来,这个领域也异常地活跃,包括老牌一些的TensorFlow XLA、TVM、Tensor Comprehension、Glow,以及最近呼声很高的MLIR,能够看到不同的公司、社区在这个领域进行着大量的探索和推进。
2211 0
AICompiler编译器介绍及访存密集算子优化

热门文章

最新文章