D3D10/11中的遮挡查询的使用

简介: 在D3D10/11中,有D3D10_QUERY/D3D11_QUERY接口,通过QUERY接口,我们可以查询GPU的一些状态,比如GPU的时间戳信息(Timestamp)[这个常用来做performance分析],或者遮挡查询信息等等。

      在D3D10/11中,有D3D10_QUERY/D3D11_QUERY接口,通过QUERY接口,我们可以查询GPU的一些状态,比如GPU的时间戳信息(Timestamp)[这个常用来做performance分析],或者遮挡查询信息等等。我们通过directx sdk中的例子来看看在D3D10/11中,如何使用遮挡查询。源文件目录:SDK root\Samples\C++\Direct3D10\DrawPredicated

     首先看看场景中包含哪些物体:6个望远镜(望远镜是高模,mesh数目比较多),望远镜中间有个灯塔形状的物体,再就是立方体表示的城市模型,另外还有还有一个没有显示的物体,就是望远镜的包围盒(低模),当我们勾选了Render Occluders后,就可以看到该包围盒。

image

     

image

     

       从D3D11教程管线的介绍中我们知道,当D3D把Draw传给GPU时候,通常要经过Command Processor-Vertex shader-PA(体元装配)-RS(光栅化)-Pixel shader-color buffer,这几个阶段(不考虑GS和 Tessllation)。

      一个三角形,经过一个很长的渲染管线,最终会在屏幕上显示出来,要是像上图中的望远镜一样,它在我们的视野中,还好,如果像下图一样,我们眼前是一堵墙,后面的物体根本看不到,但是这些高模的望远镜,VS和PS还是要做,会消耗很多的GPU时间,如果我们使用遮挡查询预测的功能,对高模的望远镜,给其配备一个贴身的低模包围盒,通过查询包围盒的遮挡情况,如果包围盒在当前帧中,所有采样(在深度测试时候,是以sample为单位,看以看下关于msaa的教程)都z fail,则查询

D3D10_QUERY_OCCLUSION_PREDICATE返回false,如果有任何一个采样z pass则返回true,在返回false的情况下,意味着包围盒在当前帧中,完全不可见,那么包围盒当中的望远镜,当然也是完全不可见,这时在渲染望远镜时,我们可以启动预测功能,就是根据包围盒的的遮挡查询结果来渲染,在gpu硬件层次,在command processor中,它就会丢弃该draw,不会做vs和ps,这样就可以有效的提高FPS。比如下面二图,启用prediction的情况下,FPS是460帧,没有启用的情况下,只有261。

 

image

 

image

代码的实现也很简单:

首先要定义预测变量

ID3D10Predicate*                    g_pPredicate[NUM_MICROSCOPE_INSTANCES] = {NULL};

因为场景中有6个望远镜,所以通过一个数组来表示所有预测变量,

在程序初始化时候,会创建这些遮挡查询预测:

// 创建预测

D3D10_QUERY_DESC qdesc;
qdesc.MiscFlags = D3D10_QUERY_MISC_PREDICATEHINT;
qdesc.Query = D3D10_QUERY_OCCLUSION_PREDICATE;
for( int i = 0; i < NUM_MICROSCOPE_INSTANCES; i++ )
{
    V_RETURN( pd3dDevice->CreatePredicate( &qdesc, &g_pPredicate[i] ) );
}

渲染包围盒和望远镜时候,要保持他们渲染的前后顺序

// 渲染望远镜的包围盒

for( int i = 0; i < NUM_MICROSCOPE_INSTANCES; i++ )
{
    D3DXMATRIX mMatRot;
    D3DXMATRIX mWVP;
    D3DXMatrixRotationY( &mMatRot, i * ( D3DX_PI / 3.0f ) );
    mWVP = mMatRot * mWorldViewProj;
    g_pmWorldViewProj->SetMatrix( ( float* )&mWVP );

   // 渲染包围盒mesh,注意被一个预测变量包在中间

    //而且用g_pRenderOccluder渲染时,包围盒并不会在屏幕上显示出来,而是通过alpha blending丢掉的它的渲染结果,但是深度信息会被保存在memory中,以便下面渲染望远镜时候,使用它的z pass信息进行预测。

    if( g_bUsePredication )
    {
        g_pPredicate[i]->Begin();
        g_OccluderMesh.Render( pd3dDevice, g_pRenderOccluder );
        g_pPredicate[i]->End();
    }
}

// 渲染包围盒后再渲染望远镜,注意预测功能开启与关闭的代码。

for( int i = 0; i < NUM_MICROSCOPE_INSTANCES; i++ )
{
    D3DXMATRIX mMatRot;
    D3DXMATRIX mWVP;
    D3DXMatrixRotationY( &mMatRot, i * ( D3DX_PI / 3.0f ) );
    mWVP = mMatRot * mWorldViewProj;
    g_pmWorldViewProj->SetMatrix( ( float* )&mWVP );

    if( g_bUsePredication )
    {
        pd3dDevice->SetPredication( g_pPredicate[i], FALSE );
    }

    g_HeavyMesh.Render( pd3dDevice, g_pRenderTextured, g_pDiffuseTex );

    if( g_bUsePredication )
    {
        pd3dDevice->SetPredication( NULL, FALSE );
    }

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
相关文章
|
定位技术
ArcGIS地形起伏度+地形粗糙度+地表切割深度+高程变异系数提取
ArcGIS地形起伏度+地形粗糙度+地表切割深度+高程变异系数提取
6105 0
|
人工智能 算法 定位技术
基于等照度线和窗口匹配的图像修补算法
基于等照度线和窗口匹配的图像修补算法
cesium添加实体不被地形遮挡的参数设置
disableDepthTestDistance:指定从相机到禁用深度测试的距离,关于深度测试我们将在后面的文章中介绍到,由于深度测试的存在,我们的对象很多时候会被地形挡住,如下:
1918 0
cesium添加实体不被地形遮挡的参数设置
|
6月前
|
传感器 人工智能 搜索推荐
用 ChatGPT 4.0 实现获取并保存 RealSense 相机的深度图像,处理colorizer,histogram equalization配置,解决深度图像颜色分布异常问题
用 ChatGPT 4.0 实现获取并保存 RealSense 相机的深度图像,处理colorizer,histogram equalization配置,解决深度图像颜色分布异常问题
98 0
用 ChatGPT 4.0 实现获取并保存 RealSense 相机的深度图像,处理colorizer,histogram equalization配置,解决深度图像颜色分布异常问题
基于颜色分割方法跟踪人员的面部和手部
使用基于颜色的分割方法跟踪人员的面部和手部。
76 0
ENVI:影像的规则裁剪和不规则裁剪
ENVI:影像的规则裁剪和不规则裁剪
362 0
|
6月前
|
C++
[Halcon&定位] 解决Roi区域外的模板匹配成功
[Halcon&定位] 解决Roi区域外的模板匹配成功
197 0
|
存储 数据可视化 数据管理
处理RGB-D图像数据以构建室内环境地图并估计相机的轨迹
视觉同步定位和映射 (vSLAM) 是指计算摄像机相对于周围环境的位置和方向,同时映射环境的过程。 您可以使用单眼摄像头执行 vSLAM。但是,深度无法准确计算,估计的轨迹未知,并且随着时间的推移而漂移。要生成无法从第一帧开始三角测量的初始地图,必须使用单眼相机的多个视图。更好、更可靠的解决方案是使用 RGB-D 相机,它由一个 RGB 彩色图像和一个深度图像组成。
187 0
R|tableone 快速绘制文章“表一”-基线特征三线表
R|tableone 快速绘制文章“表一”-基线特征三线表
136 0
|
计算机视觉 智慧交通
智慧交通day02-车流量检测实现08:目标跟踪中的数据关联(将检测框bbox与卡尔曼滤波器的跟踪框进行关联匹配)
智慧交通day02-车流量检测实现08:目标跟踪中的数据关联(将检测框bbox与卡尔曼滤波器的跟踪框进行关联匹配)
141 0