遥感数字图像处理教程复习整理2

简介: 遥感数字图像处理教程复习整理


  1. 系统辐射校正
  1. 是什么

对传感器成像系统造成的系统误差进行的粗校正称之为系统辐射校正。

  1. 怎么做

对光学镜头的非均匀性引起的边缘减光现象进行校正;

对由检测器等引起的坏线和条纹进行修复;

通过域值法识别坏像元,并通过平滑操作以进行斑点的修复;

  1. 为什么要做

因为影像存在边缘减光现象、条纹坏线、斑点等问题时,会对影像目视解译等产生影响。

  1. 辐射定标
  1. 是什么

辐射定标一般而言是将传感器记录的电压或数字量化值(DN值)转换成辐射亮度、反射率等遥感物理量的过程。

  1. 怎么做

理论公式复杂,我们直接使用实操的公式:


或者:

         


以上公式中的增益系数、偏置、最小最大值等一般仅针对影像中某一波段而言,因为不同波段的计算公式参数不同。

  1. 为什么要做

为了消除传感器本身的误差,确定传感器入口处的准确辐射值,将DN值转换为辐射亮度值、反射率值和温度等物理量

  1. 大气校正
  1. 是什么

消除由大气散射等引起的辐射误差的处理过程称之为大气校正。

  1. 怎么做

对于可见光和近红外波段,我们使用ENVI的Flaash等模块进行大气校正;


对于热红外波段,由于我们不需要考虑大气的散射而考虑其吸收和发射,因此我们使用ENVI的Thermal Atm Correction等进行热红外波段的大气校正。


为什么要做

消除大气和光照等因素对地物反射的影响,获得真实地表反射率、辐射率、地表温度等真实物理模型参数。


地表辐射校正(地面辐射校正)

是什么

地面辐射校正包括太阳辐射校正和地形辐射校正。


太阳辐射校正的目的是通过将太阳光线倾斜照射时获取的图像校正为太阳光线垂直照射时获取的图像。(主要用于比较不同太阳高度角的图像,消除不同地方、不同季节、不同时期图像之间的辐射差异,通常通过调整图像的平均亮度加以实现。)


地形辐射校正的目的是消除由地形引起的辐射亮度误差,使坡度不同但反射性质相同的地物在图像中具有相同的亮度值。


(链接:https://www.zhihu.com/question/438245884/answer/2349543187)

  1. 怎么做

  1. 为什么要做

消除由太阳高度角等和地形起伏引起的辐射亮度误差。

  1. 辐射校正和辐射增强区别


辐射校正是一种预处理步骤,其目标是去除影像中由于传感器特性、观测条件和大气效应等非地表目标因素引起的辐射畸变,从而获取地表真实的反射率或辐射亮度。辐射校正包括系统辐射校正、辐射定标、大气校正、地面辐射校正(太阳辐射校正和地形辐射校正)等步骤。


辐射增强则是一种后处理步骤,其目标是通过调整影像的灰度级别,提高影像的视觉质量和解译效果。辐射增强的方法通常包括直方图均衡化、直方图规定❀、线性拉伸、非线性拉伸等,它们可以改变影像的对比度和亮度,使得人眼或计算机更容易从影像中提取信息。


所以,辐射校正和辐射增强的主要区别在于,前者试图恢复地表的真实辐射信息,而后者试图改善影像的视觉效果,使得信息更容易被解读。

  1. 辐射校正的原因、误差是什么

由于传感器自身的因素(比如传感器老化、暗电流、损坏像元等,都可能引起影像辐射信息的误差)以及大气状况(地球大气会吸收和散射来自地表的太阳辐射,这会影响卫星接收到的辐射值)、太阳位置(不同的观测角度和太阳高度角会使得同一地物的反射率或辐射亮度表现不同)、地形起伏(地形因素例如坡度坡向导致影像辐亮度的变化)等外界因素,使得目标物反射或发射的能量与传感器的测量值存在差异。

  1. 辐射校正和大气校正之后我们会得到一个什么样的数据?得到这个数据之后还要做一些什么工作?

这里没有找到相关的解答。那就随便答吧。


首先,要明白这里的辐射校正应该是老师口误,因为至少在国内的教材中辐射校正大多包含了辐射定标、大气校正等;但是我们在进行一些数据集特别是国外数据集的下载中,常常引发一些错误,因为国外的Radiometric calibration(实际上其为辐射定标)有时翻译为辐射校正,而Radiometric correction(实际为辐射校正)也翻译为辐射校正。也有的数据集的介绍进行混用,这会导致一些混乱。当然,也有一些人不满教材中如此阐述,不过已是大势所趋了。


因此应该是进行辐射定标和大气校正后,我们会得到一个什么样的数据?对于这个数据之后还要进行哪些工作?


首先,我们得到的数据是关于真实地表反射率、辐射率、地表温度等遥感物理量的影像。


得到这个数据之后我们需要对影像进行几何校正。


  1. 几何校正
  1. 是什么

几何校正是指消除或改正遥感影像几何误差的过程。

  1. 怎么做(方法)

几何校正包括正射校正、几何粗校正(地面站点就已完成)、几何精校正(几何配准、地理配准等均是指代其)。

当然应该也包括重采样,这其实也就解释了为什么我们是先做辐射校正然后再进行几何校正。原本二者本无任何关联,辐射校正解决的是像元值的问题,而几何校正解决的是像元位置的问题,进行辐射校正仅仅只会对影像中各个像元的像素值进行变换,而不会对像元位置进行变换。但是问题就在于此,我们在进行几何校正之后,由于进行了重采样(因为像元位置发生了变化,可能存在有一些位置处空缺像元,因此需要重采样),那么就会导致像元值发生变化。当然,影响也不是特别大,你想要反着来操作也不会有太大的影响,但是大家都这么操作,而且确实事出有因那就没有必要如此。


  1. 多项式模型中控制点的个数如何求取?

既然老师强调多项式模型,也强调了几何校正如何去做,那么我们就通过多项式模型了解几何校正的大致原理,当然最重要的还是控制点的个数如何求取,毕竟这是考试。我们知道,几何校正的本质就是将像元校正到正确的位置上去。


那么多项式模型如何解决这个问题呢?

那么,问题在于,怎么得到?

对于一次项模型(最高阶是1),我们的式子应如下:

         


                                               

  1. 控制点如何选取?原则是什么?
  1. 控制点应选取图像上易分辨且较精细的特征点,如道路交叉点、河流弯曲或分叉处、湖泊边缘、飞机场、城廓边缘等
  2. 地面控制点上的地物不随时间而变化,以保证当两幅不同时段的图像或地图几何纠正时,可以同时识别出来
  3. 特征变化大的地区应多选一些
  4. 图像边缘部分一定要选取控制点,以避免外推
  5. 尽可能满幅均匀选取


  1. 为什么要做

因为影像在成像过程中像元位置会受到以下方面的影响,造成影像发生几何畸变,因此需要通过几何校正将像元校正到正确的位置。


  1. 传感器成像方式引起的图像变形;
  2. 传感器外方位元素变化的影响;
  3. 遥感平台位置和运动状态变化的影响: 航高、航速、俯仰、翻滚、偏航;
  4. 地形起伏影响而产生的像点位移;
  5. 地球表面曲率的影响:一是产生像点位移;二是像元对应于地面宽度不等,距星下点愈远畸变愈大,对应地面长度越长;
  6. 大气折射的影响:产生像点位移;
  7. 地球自转引起的变形;



通过对各个影像进行几何校正,保证不同图像间的几何一致性

  1. 什么时候做

当需要将来自不同日期、传感器、平台、高度、视角等的遥感影像进行对比、融合、叠置分析等时,需要进行几何校正,以使所有影像在空间上对齐保证不同图像间的几何一致性

特别地,对于几何校正中地正射校正,一般在高分辨率影像需要进行(特别使亚米级)。

  1. 图像变换
  1. 傅里叶变换

不会具体考,只需要知道傅里叶变换是什么?

傅里叶变换是图像处理中一种有效而重要的方法,可用于图像特征提取、频率域滤波、周期性噪声去除、图像恢复、纹理分析等。


  1. 波段运算

类似栅格计算器,不进行阐述。

  1. K-L变换


         就可以得到K-L变换之后的影像了。当然,你或许会问,你前面说舍去某些行,可是我的影像是一个二维的,确实,事实上我们是将二维影像一维化,例如,我们有6个波段的一张影像,那么:


                                               


X一共6行表示6个波段的信息,进行主成分正变换得到Y,进行一些取舍之后(例如将后面三行全部变为0),再进行主成分逆变换得到新的X。那么现在的X就是去除了很多噪声的6波段影像。

在Y中,我们称一行就是一个主成分分量,我们根据Y的协方差矩阵可以知道各个分量的有效信息,如此进行取舍。


  1. K-T变换(缨帽变换)

K-T变换实际上就是一种特殊的K-L变换,我们进行k-L变换可以得到最好的变换,就是在最大程度上将噪声或者说冗余部分去除了,但是我们K-L变换之后得到的各个分量却没有特别的含义或者说没有什么可比较性。


但是K-T变换在K-L的变换上进行了改进,K-T变换得到的各个主成分分量具有一定的景观含义。


对于Landsat MSS传感器而言:


第一个分量是亮度分量,是土壤反射率变化的方向;


第二个分量是绿色物质分量(绿度),反应植物的生物量状况;


第三个分量是黄色物质分量(黄度);反应植物的枯萎程度;


对于Landsat TM和ETM+传感器而言:


第一个分量是亮度,反应总体反射值(与MSS不同);


第二个分量是绿度,类似;


第三个分量是湿度;


不同的传感器,卫星的含义不尽相同。


至于缨帽变换的特征是什么?上面三个分量代表的含义需要谨记;另外就是它独立于影像,对于同一传感器其变换系数(就是我们前面讲的 类似但是稍有差别吧)是固定的;


  1. K-L变换和K-T变换的特征以及如何区分?


这里需要注意,对于K-L变换,每一张影像的变换矩阵( )都是不一样的,它是根据影像中各个波段的栅格矩阵进行计算得到的;而对于K-T变换,它对于同一种传感器拍摄的影像,变换矩阵( )都是固定的;这应该算是二者的一个区别;


如果说还有区别,那就是二者得到的分量,对于K-L变换得到的分量很难具有一定的特殊含义或比较含义;而对于K-T变换得到的三个分量具有明确的物理意义(例如我们可以利用第二和第三分量进行植被和水体信息的提取);


  1. 最近邻内插和双线性内插怎么计算?

以题为例:

f(1,1)=1, f(1,2)=5, f(2,1)=3, f(2,2)=4, 分别按照最近邻插值法、双线性插值法确定点(1.2,1.6)的灰度值

  1. 最近邻内插


最近邻算法:要插值的像元点的值为距离其最近的已知像元的值。

在此题中,我们假定A(1,1)、B(1,2)、C(2,1)、D(2,2)、E(1.2,1.6),那么

                             


可以发现,需要插值像元E(1.2,1.6)与已知像元B距离最近,因此我们认为E点(1.2,1.6)的灰度值为B点的灰度值即5。

  1. 双线性内插

有一点难这种算法,但是理解了就还好。其实就是进行了两次一次线性插值。

还是刚刚那道题(假设不变),我们一点一点剖析,如果我们知道了以下两个蓝点(F、G)的像元值,那么对于要插值的像元E我们是不是有一点思路了?



假定我们已知F点和G点的灰度值(不如称之为f(F)、f(G)),另外我们假定从F点到G点的灰度值是线性变化的,那么它灰度的线性变化不就是按照距离由大到小或者由小到大嘛,而我们要的E点就在其中,如此我们不是可以得到E点的灰度值?


一句话就是该点的值= 该点在横轴或者竖轴邻近小的那个点(坐标小的那个)的距离与该点在横轴或者纵轴相邻两点的距离的比值 * 相邻两点的灰度值之差 + 某一点的灰度值,某一点看下面的公式自然一眼懂。


那么这个线性变化用公式如何去表达?


那么这个线性变化用公式如何去表达?

                           

如此可以计算出f(E) 的灰度值了。


那么问题来了,我如何求取F点和G点的灰度呢?类似的,我们还是进行如此计算,我就不详细阐述了,公式如下:

总共三个式子,三个未知数:最终结算E点的灰度值为3.44.


    有的双线性内插喜欢这样子计算:


f(F)=5 + (4 - 5) * ((1.2 - 1) /(2 - 1)) = 4.8


f(G)=1 + (3 - 1) * ((1.2 - 1) /(2 - 1)) = 1.4


f(E) = 1.4 + (4.8 – 1.4) * ((1.6 - 1) / (2 - 1)) = 3.44


如果你熟练那么无所谓,不然还是列三个公式一步一步来,不过这个写的也挺爽。


  1. 彩色变换

这里掌握HSI模型,需要注意的是:

  1. 色调(Hue):描述了颜色的类型,如红色、黄色、蓝色等
  2. 饱和度(Saturation):描述了颜色的纯度,饱和度越高,颜色越鲜艳。
  3. 亮度(Intensity):描述了颜色的亮度或明暗程度。


至于颜色模型是什么分量变换,,,如果只是颜色模型之间的变换例如RGB转HIS那么应该所有分量R、G、B三个分量都进行了变换;所以可能理解有误,如果可能,应该是强调图像融合的时候,若我们使用HSI变换,对于高分辨率单波段影像和低分辨率多波段影像,我们先将多波段影像的RGB转化为HIS模型,然后将I(亮度)分量换成高分辨率影像的波段,然后再进行HIS逆变换,如此得到高分辨率的多波段影像。所以这里可能指代这个I分量。


  1. 图像滤波

图像通过滤波和卷积进行图像增强;

  1. 对比度计算

考试使用四邻域计算;掌握以下即可。


  1. 辐射增强-直方图匹配(直方图规定化)和直方图均衡化

什么时候用直方图匹配,什么时候使用直方图均衡化,使用条件是什么?

  1. 是什么

首先,需要明白,直方图匹配、直方图均衡化是什么,干什么用?

目录
相关文章
|
6月前
|
算法
计算机算法设计与分析(1-6章 复习笔记)
计算机算法设计与分析(1-6章 复习笔记)
|
5月前
|
机器学习/深度学习 算法
284张机器学习漫画手册吃透所有基础知识!
前几天淘到一份斯坦福大佬整理的漫画集,几乎讲到了机器学习所有的知识点,包括特征工程、算法模型、评估、优化……熬夜肝完了,真的很不错! 用284张漫画几乎可以吃透机器学习所有知识,就想着赶紧分享给小伙伴们了!
|
6月前
|
算法 计算机视觉 Python
心得经验总结:数字图像处理
心得经验总结:数字图像处理
70 2
|
存储 传感器 XML
遥感数字图像处理教程复习整理1
遥感数字图像处理教程复习整理
334 0
遥感数字图像处理教程复习整理1
|
传感器 机器学习/深度学习 编解码
复习:遥感图像解译复习整理
复习:遥感图像解译复习整理
218 0
|
SQL 编解码 算法
陈伟视频知识点整理
陈伟视频知识点整理
95 0
|
机器学习/深度学习 存储 编解码
遥感数字图像处理教程复习整理3
遥感数字图像处理教程复习整理
170 0
|
传感器 数据格式
遥感原理与应用:绪论基础知识
遥感原理与应用:绪论基础知识
232 0
|
存储 数据安全/隐私保护 计算机视觉
数字图像处理笔记(下)
数字图像处理笔记
216 0
|
传感器 机器学习/深度学习 算法
数字图像处理笔记(上)
数字图像处理笔记
278 0