[译]基于 Metal 的 ARKit 使用指南(下)

简介: 本文讲的是[译]基于 Metal 的 ARKit 使用指南(下),咱们上篇提到过 , ARKit 应用通常包括三个图层 : 渲染层 , 追踪层 和 场景解析层 。上一篇我们通过一个自定义视图已经非常详细地分析了渲染层在 Metal 中是如何工作的了。
本文讲的是[译]基于 Metal 的 ARKit 使用指南(下),

咱们上篇提到过 , ARKit 应用通常包括三个图层 : 渲染层 , 追踪层 和 场景解析层 。上一篇我们通过一个自定义视图已经非常详细地分析了渲染层在 Metal 中是如何工作的了。 ARKit 使用 视觉惯性测程法 准确地追踪它周围的环境,并将相机传感器数据和 CoreMotion 数据相结合。这样当相机随我们运动时,不需要额外的校准就可以保证图像的稳定性。这篇文章我们将研究 场景解析 —— 通过平面检测,碰撞测试和光线测定来描述场景特征的方法。 ARKit可以分析相机呈现出来的场景并在场景中找到类似地板这样的水平面。前提是,我们需要在运行 session configuration 之前,简单地添加额外的一行代码来打开水平面检测的新特性(默认是关闭的):

override func viewWillAppear(_ animated: Bool) {
super.viewWillAppear(animated)
let configuration = ARWorldTrackingConfiguration()
configuration.planeDetection = .horizontal
session.run(configuration)
}

注意,在当前的 API 版本中只能添加水平的平面检测。

使用 ARSessionObserver 协议方法来处理会话错误,追踪变化和打断:

func session(_ session: ARSession, didFailWithError error: Error) {}
func session(_ session: ARSession, cameraDidChangeTrackingState camera: ARCamera) {}
func session(_ session: ARSession, didOutputAudioSampleBuffer audioSampleBuffer: CMSampleBuffer) {}
func sessionWasInterrupted(_ session: ARSession) {}
func sessionInterruptionEnded(_ session: ARSession) {}

与此同时, ARSessionDelegate 协议还有其他的代理方法(继承于 ARSessionObserver )来让我们处理锚点:我们在第一个方法中调用 print() :

func session(_ session: ARSession, didAdd anchors: [ARAnchor]) {
print(anchors)
}
func session(_ session: ARSession, didRemove anchors: [ARAnchor]) {}
func session(_ session: ARSession, didUpdate anchors: [ARAnchor]) {}
func session(_ session: ARSession, didUpdate frame: ARFrame) {}

让我们现在打开 Renderer.swift 文件。首先,创建一些我们需要的类属性。这些变量将会帮助我们在屏幕上创建和展示一个调试界面:

var debugUniformBuffer: MTLBuffer!
var debugPipelineState: MTLRenderPipelineState!
var debugDepthState: MTLDepthStencilState!var debugMesh: MTKMesh!
var debugUniformBufferOffset: Int = 0
var debugUniformBufferAddress: UnsafeMutableRawPointer!
var debugInstanceCount: Int = 0

其次,我们在 setupPipeline() 中创建缓存区:

debugUniformBuffer = device.makeBuffer(length: anchorUniformBufferSize, options: .storageModeShared)

我们需要为我们的平面创建新的顶点和分段函数,以及新的渲染管道和深度模板状态。在刚才创建命令行队列的代码上面,添加以下代码:

let debugGeometryVertexFunction = defaultLibrary.makeFunction(name: "vertexDebugPlane")!
let debugGeometryFragmentFunction = defaultLibrary.makeFunction(name: "fragmentDebugPlane")!
anchorPipelineStateDescriptor.vertexFunction =  debugGeometryVertexFunction
anchorPipelineStateDescriptor.fragmentFunction = debugGeometryFragmentFunction
do { try debugPipelineState = device.makeRenderPipelineState(descriptor: anchorPipelineStateDescriptor)
} catch let error { print(error) }
debugDepthState = device.makeDepthStencilState(descriptor: anchorDepthStateDescriptor)

再次,在 setupAssets() 方法中,我们需要创建一个新的 Model I/O 平面网格,然后在通过它创建一个 Metal 网格。在这个方法的末尾添加下面的代码:

mdlMesh = MDLMesh(planeWithExtent: vector3(0.1, 0.1, 0.1), segments: vector2(1, 1), geometryType: .triangles, allocator: metalAllocator)
mdlMesh.vertexDescriptor = vertexDescriptor
do { try debugMesh = MTKMesh(mesh: mdlMesh, device: device)
} catch let error { print(error) }

下一步,在 updateBufferStates() 方法中,我们需要更新平面所在缓存区的地址。添加下面的代码:

debugUniformBufferOffset = alignedInstanceUniformSize * uniformBufferIndex
debugUniformBufferAddress = debugUniformBuffer.contents().advanced(by: debugUniformBufferOffset)

接下来,在 updateAnchors() 方法中,我们需要更新转换矩阵和锚点的数量。在循环之前添加下面的代码:

let count = frame.anchors.filter{ $0.isKind(of: ARPlaneAnchor.self) }.count
debugInstanceCount = min(count, maxAnchorInstanceCount - (anchorInstanceCount - count))

然后,在循环中用下面代码替换最后的三行代码:

if anchor.isKind(of: ARPlaneAnchor.self) {
let transform = anchor.transform * rotationMatrix(rotation: float3(0, 0, Float.pi/2))
let modelMatrix = simd_mul(transform, coordinateSpaceTransform)
let debugUniforms = debugUniformBufferAddress.assumingMemoryBound(to: InstanceUniforms.self).advanced(by: index)
debugUniforms.pointee.modelMatrix = modelMatrix
} else {
let modelMatrix = simd_mul(anchor.transform, coordinateSpaceTransform)
let anchorUniforms = anchorUniformBufferAddress.assumingMemoryBound(to: InstanceUniforms.self).advanced(by: index)
anchorUniforms.pointee.modelMatrix = modelMatrix
}

我们必须以 Z 轴为轴心扭转平面 90°,这样我们就可以使平面保持水平。注意我们使用了一个叫做 rotationMatrix() 的自定义方法,现在来让我们定义这个方法。在我早先的文章第一次介绍 3D 转换时提到过这个矩阵:

func rotationMatrix(rotation: float3) -> float4x4 {
var matrix: float4x4 = matrix_identity_float4x4
let x = rotation.x
let y = rotation.y
let z = rotation.z
matrix.columns.0.x = cos(y) * cos(z)
matrix.columns.0.y = cos(z) * sin(x) * sin(y) - cos(x) * sin(z)
matrix.columns.0.z = cos(x) * cos(z) * sin(y) + sin(x) * sin(z)
matrix.columns.1.x = cos(y) * sin(z)
matrix.columns.1.y = cos(x) * cos(z) + sin(x) * sin(y) * sin(z)
matrix.columns.1.z = -cos(z) * sin(x) + cos(x) * sin(y) * sin(z)
matrix.columns.2.x = -sin(y)
matrix.columns.2.y = cos(y) * sin(x)
matrix.columns.2.z = cos(x) * cos(y)
matrix.columns.3.w = 1.0
return matrix
}

接着,在 drawAnchorGeometry() 方法中,我们需要确保我们在渲染的时候至少拥有一个锚点,用下面的代码替换方法第一行:

guard anchorInstanceCount - debugInstanceCount > 0 else { return }

再然后,让我们最后创建 drawDebugGeometry() 方法来绘制我们的平面。它和锚点渲染方法是非常相似的:

func drawDebugGeometry(renderEncoder: MTLRenderCommandEncoder) {
guard debugInstanceCount > 0 else { return }
renderEncoder.pushDebugGroup("DrawDebugPlanes")
renderEncoder.setCullMode(.back)
renderEncoder.setRenderPipelineState(debugPipelineState)
renderEncoder.setDepthStencilState(debugDepthState)
renderEncoder.setVertexBuffer(debugUniformBuffer, offset: debugUniformBufferOffset, index: 2)
renderEncoder.setVertexBuffer(sharedUniformBuffer, offset: sharedUniformBufferOffset, index: 3)
renderEncoder.setFragmentBuffer(sharedUniformBuffer, offset: sharedUniformBufferOffset, index: 3)
for bufferIndex in 0..<debugMesh.vertexBuffers.count {
let vertexBuffer = debugMesh.vertexBuffers[bufferIndex]
renderEncoder.setVertexBuffer(vertexBuffer.buffer, offset: vertexBuffer.offset, index:bufferIndex)
}
for submesh in debugMesh.submeshes {
renderEncoder.drawIndexedPrimitives(type: submesh.primitiveType, indexCount: submesh.indexCount, indexType: submesh.indexType, indexBuffer: submesh.indexBuffer.buffer, indexBufferOffset: submesh.indexBuffer.offset, instanceCount: debugInstanceCount)
}
renderEncoder.popDebugGroup()
}

在渲染层还有最后件事要做 —— 就是在 update() 里我们刚才结束编码的那一行上面调用这个方法:

drawDebugGeometry(renderEncoder: renderEncoder)

接着,我们打开 Shaders.metal 文件,我们需要一个新的结构体,只需通过一个顶点描述符传递顶点的位置

typedef struct {
float3 position [[attribute(0)]];
} DebugVertex;

在顶点着色器中,我们使用模型视图矩阵来更新顶点的位置:

vertex float4 vertexDebugPlane(DebugVertex in [[ stage_in]],
constant SharedUniforms &sharedUniforms [[ buffer(3) ]],
constant InstanceUniforms *instanceUniforms [[ buffer(2) ]],
ushort vid [[vertex_id]],
ushort iid [[instance_id]]) {
float4 position = float4(in.position, 1.0);
float4x4 modelMatrix = instanceUniforms[iid].modelMatrix;
float4x4 modelViewMatrix = sharedUniforms.viewMatrix * modelMatrix;
float4 outPosition = sharedUniforms.projectionMatrix * modelViewMatrix * position;
return outPosition;
}

最后,在片段着色器中,我们给平面一个鲜艳的颜色,使我们在视图中可以一眼看到它:

fragment float4 fragmentDebugPlane() {
return float4(0.99, 0.42, 0.62, 1.0);
}

如果你运行这个 app , 当 APP 检测到一个平面时,你应该能够看到一个矩形,就像这样:

接下来,我们可以通过检测其他目标,或将视角从之前的检测目标上移开来更新或者移除平面。其他的代理方法可以帮助我们实现这一点。接着我们可以研究碰撞和其他物理效果。当然,这只是一个未来的想象。

我想要感谢 Caroline 为本篇文章指定检测目标(平面)! 按照惯例,源代码 都发表在 Github上。

期待下次相见!





原文发布时间为:2017年9月15日

本文来自云栖社区合作伙伴掘金,了解相关信息可以关注掘金网站。
目录
相关文章
|
16天前
|
算法 计算机视觉 iOS开发
iOS 实时图像处理技术:使用 Core Image 和 Metal 进行高效滤镜应用
【4月更文挑战第8天】 在移动设备上实现高效的图像处理功能是现代应用程序开发中的一个关键需求。苹果的iOS平台提供了Core Image和Metal两大技术,它们为开发者提供了强大的工具来实现复杂的图像处理任务。本文将探讨如何使用Core Image进行基础图像处理,并结合Metal的性能优势,开发出一个自定义的实时图像滤镜。我们将通过创建一个能够动态调整参数并且具有实时反馈效果的滤镜来演示这一过程。
|
JavaScript 前端开发 程序员
用Unity不会几个插件怎么能行?Unity各类插件及教程推荐
话说工欲善其事必先利其器,程序员总是有一些开发利器,而对于Unity3D开发程序员来说,插件就是非常好用的利器。 今天博主,就将比较好用的插件推荐给大家,希望一起学习品鉴。
|
1天前
|
SQL 前端开发 JavaScript
IDM 平替 Gopeed Flutter 开源免费下载工具
IDM 替代品 Gopeed 是一个开源免费的 Flutter 下载工具,支持 HTTP、BitTorrent、Magnet 等协议。项目采用 getx 进行构建,已获得 13k Star。功能包括多平台下载、自定义下载目录和并发数、代理设置等。它还拥有浏览器扩展和各种下载插件。开发者可以参考代码学习 Flutter 和 getx。项目源码可在 GitHub 上找到,同时提供了编译和配置指南。Gopeed 是一个值得尝试的现代化下载工具,适用于 Flutter 开发者和用户。
IDM 平替 Gopeed Flutter 开源免费下载工具
|
3月前
|
存储 C# 图形学
为虚幻引擎开发者准备的Unity指南
为虚幻引擎开发者准备的Unity指南
|
5月前
|
API vr&ar Android开发
一文搞懂ARKit,ARCore,RealityKit和Vuforia
AR框架的一个核心是含能够理解特征的场景和各种类型的锚点。锚点有很多种,可根据特定场景来摆放3D模型 ,甚至可以真人来做距离测量(ARBodyAnchor)。并且这些框架不容忽视的优势是具有进行场景重建和人形遮挡(occlusion)的32位尝试数据。
163 4
|
5月前
|
设计模式 前端开发 C#
Helix Toolkit:为.NET开发者带来的3D视觉盛宴
Helix Toolkit:为.NET开发者带来的3D视觉盛宴
60 0
|
8月前
|
API 开发者
HarmonyOS学习路之开发篇—多媒体开发(相机开发 二)
Camera操作类,包括相机预览、录像、拍照等功能接口。
|
8月前
|
存储 编解码 API
HarmonyOS学习路之开发篇—多媒体开发(相机开发 一)
HarmonyOS相机模块支持相机业务的开发,开发者可以通过已开放的接口实现相机硬件的访问、操作和新功能开发,最常见的操作如:预览、拍照、连拍和录像等。
HarmonyOS学习路之开发篇—多媒体开发(图像开发 二)
图像编码就是将PixelMap图像编码成不同存档格式图片,用于后续其他处理,比如保存、传输等。当前仅支持JPEG格式。
HarmonyOS学习路之开发篇—多媒体开发(图像开发 二)
|
8月前
|
计算机视觉
HarmonyOS学习路之开发篇—多媒体开发(图像开发 一)
HarmonyOS图像模块支持图像业务的开发,常见功能如图像解码、图像编码、基本的位图操作、图像编辑等。当然,也支持通过接口组合来实现更复杂的图像处理逻辑。