iOS MachineLearning 系列(2)—— 静态图像分析之矩形识别

简介: 本系列文章将完整的介绍iOS中Machine Learning相关技术的应用。本篇文章开始,我们将先介绍一些与Machine Learning相关的API的应用。使用这些API可以快速方便的实现很多如图像识别,分析等复杂功能,且不会增加应用安装包的体积。

iOS MachineLearning 系列(2)—— 静态图像分析之矩形识别

本系列文章将完整的介绍iOS中Machine Learning相关技术的应用。本篇文章开始,我们将先介绍一些与Machine Learning相关的API的应用。使用这些API可以快速方便的实现很多如图像识别,分析等复杂功能,且不会增加应用安装包的体积。

本篇将首先介绍如何分析出静态图片中的矩形区域。矩形区域的是被非常重要,其通常用来对要分析的图片进行预处理,例如通过矩形分析截取其中的二维码,条形码部分后再进行精准的识别。

1 - 矩形分析示例

与视觉相关的大部分AI能力都封装在Vision框架中,本文要介绍的是通过发起矩形分析请求来分析图片,得到分析结果后将分析出来的矩形区域绘制回原图像上。

首先定义一些属性:

// 要分析的图片资源
let image = UIImage(named: "image2")!
lazy var imageView = UIImageView(image: image)

// 绘制的矩形区域
var boxViews: [UIView] = []

// 图像分析请求句柄
lazy var imageRequestHandler = VNImageRequestHandler(cgImage: image.cgImage!,
                                                orientation: .up,
                                                options: [:])

// 图像分析请求实例
private lazy var rectangleDetectionRequest: VNDetectRectanglesRequest = {
    let rectDetectRequest = VNDetectRectanglesRequest { request, error in
        DispatchQueue.main.async {
            self.drawTask(request: request as! VNDetectRectanglesRequest)
        }
    }
    // 自定义一些配置项
    // 设置要分析的最大结果个数(矩形个数)
    rectDetectRequest.maximumObservations = 0
    // 设置最低接受的可信值
    rectDetectRequest.minimumConfidence = 0
    // 设置最小接受的纵横比
    rectDetectRequest.minimumAspectRatio = 0.1
    return rectDetectRequest
}()

其中VNDetectRectanglesRequest即是核心的图片分析请求类,VNImageRequestHandler是请求句柄,用来发起请求。后面我们会详细介绍。在开始请求分析之前,我们还需要定义个方法,用来进行矩形区域绘制:

private func drawTask(request: VNDetectRectanglesRequest) {
    // 将之前绘制的删除
    boxViews.forEach { v in
        v.removeFromSuperview()
    }
    // 遍历分析结果
    for result in request.results ?? [] {
        var box = result.boundingBox
        // 坐标系转换
        box.origin.y = 1 - box.origin.y - box.size.height
        let v = UIView()
        v.backgroundColor = .clear
        v.layer.borderColor = UIColor.black.cgColor
        v.layer.borderWidth = 1
        imageView.addSubview(v)
        let size = imageView.frame.size
        v.frame = CGRect(x: box.origin.x * size.width, y: box.origin.y * size.height, width: box.size.width * size.width, height: box.size.height * size.height)
    }
}

需要注意,Vision框架中的坐标系与CoreGraphics框架中的坐标系是一致的,其以左下角点为(0, 0)点,在UIKit框架中则是以左上角点为(0,0)点,记得进行坐标系的转换。

最后,使用下面的代码来发起请求,静态图像的分析将会是一个耗时的过程,因此建议在非主线程中进行:

DispatchQueue.global(qos: .userInitiated).async {
    do {
        // 发起分析请求
        try self.imageRequestHandler.perform([self.rectangleDetectionRequest])
    } catch let error as NSError {
        print("Failed to perform image request: \(error)")
        return
    }
}

分析的结果会在定义VNDetectRectanglesRequest时传入的回调中返回。

你可以用几张图片来实验下检测效果,如下图:

上面图片中的黑色边框就是我们检测出的结果绘制的。

2 - 关于VNDetectRectanglesRequest类

VNDetectRectanglesRequest类用来对核心的分析请求进行定义,并且设置结果回调。VNDetectRectanglesRequest类是专门创建矩形区域识别的请求类,继承自VNImageBasedRequest,VNImageBasedRequest类是静态图像分析请求的基类,继承自VNRequest类。

我们先来看VNRequest类:

@available(iOS 11.0, *)
open class VNRequest : NSObject, NSCopying {
    // 构造方法,无处理回调
    public convenience init()

    // 构造方法其中回调参数定义如下
    // (VNRequest, Error?) -> Void
    // VNRequest为当前实例本身 error是异常(如果有)
    public init(completionHandler: VNRequestCompletionHandler? = nil)

    // 是否开启后台线程模式,此模式会占用更少的内存,CPU,GPU资源,给用户更好的渲染体验,但是会以耗时为代价
    open var preferBackgroundProcessing: Bool

    // 是否允许使用GPU进行加速
    open var usesCPUOnly: Bool

    // 分析结果列表,VNObservation是结果基类,不同的子类实现不同的功能
    open var results: [VNObservation]? { get }
    
    // 处理回调,此回调中会传入当前Request对象,通过内部的results拿到结果
    open var completionHandler: VNRequestCompletionHandler? { get }
    
    // 进行分析的特定算法版本
    open var revision: Int
    // 所支持的算法版本集合
    open class var supportedRevisions: IndexSet { get }
    // 默认的版本
    open class var defaultRevision: Int { get }
    // 当前使用的算法版本
    open class var currentRevision: Int { get }
    // 取消分析请求
    open func cancel()
}

在VNRequest类中封装了一组VNObservation对象,当成功的完成了图像分析任务后,结果会被封装成VNObservation对象,不同的分析任务对应的结果对象也不同,VNObservation是这些结果的基类,其中封装了基础的信息,如下:

@available(iOS 11.0, *)
open class VNObservation : NSObject, NSCopying, NSSecureCoding, VNRequestRevisionProviding {
    // 唯一标识id
    open var uuid: UUID { get }

    // 此结果的可信度,取值0到1之间
    open var confidence: VNConfidence { get }

    // 此结果的有效时间
    @available(iOS 14.0, *)
    open var timeRange: CMTimeRange { get }
}

VNImageBasedReques类是VNRequest的一个子类,其是静态图片分析请求类的基类,其中只封装了一个属性:

@available(iOS 11.0, *)
open class VNImageBasedRequest : VNRequest {
    // 矩形被标准化处理后的尺寸,默认为{{ 0, 0 }, { 1, 1 }}
    open var regionOfInterest: CGRect
}

regionOfInterest属性非常有用,其默认会把我们要处理的图像标准化为单位矩形,返回的结果中的坐标是以此单位矩形为标准的。

最后,我们再来看下VNDetectRectanglesRequest类,这个类即使我们进行矩形区域识别的请求配置类,如下:

@available(iOS 11.0, *)
open class VNDetectRectanglesRequest : VNImageBasedRequest {
    // 设置检测接受的矩形最小的纵横比 VNAspectRatio是Float类型的别名,取值0-1之间
    open var minimumAspectRatio: VNAspectRatio
    
    // 设置检测所接受的最大的纵横比,取值0-1之间
    open var maximumAspectRatio: VNAspectRatio

    // 设置矩形角度可以偏离90度的最大角度,取值0-45之间
    open var quadratureTolerance: VNDegrees
    
    // 设置允许检测到的最小的矩形尺寸,设置为相对原图像比例值0-1之间
    open var minimumSize: Float
    
    // 设置能够接受的最小可信度,0到1之间,小于此可信度的检测结果不会被返回
    open var minimumConfidence: VNConfidence

    // 设置允许检测出的最多结果数,默认为1,设置为0表示不限制,但是Vision框架目前最多支持16
    open var maximumObservations: Int
    
    // 结果数组
    open var results: [VNRectangleObservation]? { get }
}

需要注意,设置最大最小纵横比时,会总是以长的一边作为纵,短的一边作为横。

3 - 关于VNRectangleObservation类

VNRectangleObservatio是矩形区域分析请求的结果类,继承自VNDetectedObjectObservation类,VNDetectedObjectObservation类是VNObservation的子类,其通常与对象的识别有关,其封装了与识别相关的属性,如下:

@available(iOS 11.0, *)
open class VNDetectedObjectObservation : VNObservation {
    // 检测出的区域,注意原点在左下角
    open var boundingBox: CGRect { get }
    // 缓冲区的图像数据
    open var globalSegmentationMask: VNPixelBufferObservation? { get }
}

VNRectangleObservation类则封装了与矩形相关的属性数据:

@available(iOS 11.0, *)
open class VNRectangleObservation : VNDetectedObjectObservation {
    // 左上角位置
    open var topLeft: CGPoint { get }
    // 右上角位置
    open var topRight: CGPoint { get }
    // 左下角位置
    open var bottomLeft: CGPoint { get }
    // 右下角位置
    open var bottomRight: CGPoint { get }
}

理解了请求配置类与分析结果类的用法,剩下的就是请求句柄了。

4 - 关于VNImageRequestHandler类

VNImageRequestHandler类是请求句柄类,更通俗的说,其为分析请求提供了图像数据源,并触发请求。其支持的构造方法如下:

@available(iOS 11.0, *)
open class VNImageRequestHandler : NSObject {
    // 构造方法
    public init(cvPixelBuffer pixelBuffer: CVPixelBuffer, options: [VNImageOption : Any] = [:])
    public init(cvPixelBuffer pixelBuffer: CVPixelBuffer, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
    public init(cgImage image: CGImage, options: [VNImageOption : Any] = [:])
    public init(cgImage image: CGImage, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
    public init(ciImage image: CIImage, options: [VNImageOption : Any] = [:])
    public init(ciImage image: CIImage, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
    public init(url imageURL: URL, options: [VNImageOption : Any] = [:])
    public init(url imageURL: URL, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
    public init(data imageData: Data, options: [VNImageOption : Any] = [:])
    public init(data imageData: Data, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
    public init(cmSampleBuffer sampleBuffer: CMSampleBuffer, options: [VNImageOption : Any] = [:])
    public init(cmSampleBuffer sampleBuffer: CMSampleBuffer, orientation: CGImagePropertyOrientation, options: [VNImageOption : Any] = [:])
}

VNImageRequestHandler类的构造方法很多,但归根结底是要提供三部分内容:

  1. 图片数据源。
  2. 图片的方向。
  3. 额外参数。

其中,图片的数据源可以从二进制数据加载,可以从网络加载,可以从CoreImage或CoreGraphics框架的图片对象加载等等,这里不多赘述。

图片的方向需要在构造句柄实例对象时进行提供,枚举如下:

@frozen public enum CGImagePropertyOrientation : UInt32, @unchecked Sendable {

    
    case up = 1 // 正向 

    case upMirrored = 2 // 水平镜像

    case down = 3 // 180度旋转

    case downMirrored = 4 // 竖直镜像

    case leftMirrored = 5 // 顺时针旋转90度后镜像

    case right = 6 // 顺时针旋转90度

    case rightMirrored = 7 // 逆时针旋转90度后镜像

    case left = 8 // 逆时针旋转90度
}

额外参数可以配置为一个字典对象,提供更多图片数据,支持配置的字段如下:

properties:此键可配置为一个属性字典,参考CGImageSourceCopyPropertiesAtIndex。

cameraIntrinsics:相机内部数据配置。

ciContex:CIContext配置。

最后,调用VNImageRequestHandler类的如下方法即可开始静态图像处理:

open func perform(_ requests: [VNRequest]) throws

同一个图像句柄可以同时发起多种图像处理请求。

注:本文所介绍的示例代码可在如下仓库获取:

https://github.com/ZYHshao/MachineLearnDemo

专注技术,懂的热爱,愿意分享,做个朋友
目录
相关文章
|
1月前
|
搜索推荐 Android开发 iOS开发
安卓与iOS系统的用户界面设计对比分析
本文通过对安卓和iOS两大操作系统的用户界面设计进行对比分析,探讨它们在设计理念、交互方式、视觉风格等方面的差异及各自特点,旨在帮助读者更好地理解和评估不同系统的用户体验。
21 1
|
2月前
|
Android开发 数据安全/隐私保护 iOS开发
安卓与iOS系统的发展趋势与比较分析
【2月更文挑战第6天】 在移动互联网时代,安卓和iOS系统作为两大主流移动操作系统,各自呈现出不同的发展趋势。本文将从技术角度出发,对安卓和iOS系统的发展方向、特点及未来趋势进行比较分析,以期为读者提供更深入的了解和思考。
36 4
|
7月前
|
C语言 索引
09-iOS之load和initialize底层调用原理分析
09-iOS之load和initialize底层调用原理分析
58 0
|
2月前
|
安全 搜索推荐 Android开发
Android 与 iOS 的比较分析
【2月更文挑战第5天】 Android 和 iOS 是目前市场上两种最流行的移动操作系统,它们都拥有自己的特点和优势。本文将会分别从操作系统设计、应用生态、安全性等方面对这两种操作系统进行比较和分析,希望能够帮助读者更好地选择适合自己的移动设备。
|
9月前
|
机器学习/深度学习 人工智能 自然语言处理
iOS MachineLearning 系列(22)——将其他三方模型转换成CoreML模型
本篇文章将是本系列文章的最后一篇。本专题将iOS中有关Machine Learning的相关内容做了整体梳理。下面是专题中的其他文章地址,希望如果你有需要,本专题可以帮助到你。
224 0
|
9月前
|
数据可视化 数据挖掘 iOS开发
iOS MachineLearning 系列(21)——CoreML模型的更多训练模板
前面文章中,有介绍如何训练生成定制化需求的 CoreML 模型,以图像分类为例做了演示.
118 0
|
9月前
|
存储 缓存 iOS开发
iOS 轻量化动态图像下载缓存框架实现
日常开发过程中,图片的下载会占用大量的带宽,图片的加载会消耗大量的性能和内存,正确的使用图片显得尤为重要。 同样也经常需要在各类型控件上读取网络图片和处理本地图片,例如:UIImageView、UIBtton、NSImageView、NSButton等等。
iOS 轻量化动态图像下载缓存框架实现
|
9月前
|
C语言 C++ iOS开发
iOS中C++静态全局变量的动态初始化时序
一个由于C++初始化失败导致Realm初始化失败的Crash
134 1
|
1月前
|
API 数据安全/隐私保护 iOS开发
利用uni-app 开发的iOS app 发布到App Store全流程
利用uni-app 开发的iOS app 发布到App Store全流程
88 3
|
3月前
|
存储 iOS开发
iOS 开发,如何进行应用的本地化(Localization)?
iOS 开发,如何进行应用的本地化(Localization)?
122 2