ENVI_IDL:批量处理Modis Swath数据的重投影并输出为Geotiff格式+详细解析

本文涉及的产品
云解析 DNS,旗舰版 1个月
公共DNS(含HTTPDNS解析),每月1000万次HTTP解析
全局流量管理 GTM,标准版 1个月
简介: ENVI_IDL:批量处理Modis Swath数据的重投影并输出为Geotiff格式+详细解析

1. 课堂内容

批量处理Modis Swath数据的重投影并输出为Geotiff格式

总体思路

1. 先获取Modis Grid产品的数据(这里包括获取全局属性StructMetadata.0、LST_Day_1km(陆地和海洋的温度_1km分辨率)数据集及其属性)。

2. 对上面获取数据进行处理(全局属性提取左上点和右下点的经纬度坐标以及lst数据的行列数、lst数据集的计算(得到真实的lst数据))。

3. 根据上面得到的两个点的经纬度坐标以及行列数获取x、y方向上的精确分辨率(一个像元的长宽代表的实际距离)。

4. 有上面的数据可以计算每一个像元的经纬度坐标(像元的纬度和经度分别用一个数组存储, 转换的时候需要这两个数组)。

5. 确定好投影参数然后得到投影之后的经纬度数组(均是一维)。

6. 由经纬度数组进行一些系列的处理得到行列数组,最后根据行列数组将lst数据填充到现在的投影好了的坐标系统里。


2. 知识储备



3. 编程

pro week_five_study
  ; 本程序用于解决Modis Grid文件的重投影并输出为Geotiff格式
; 总体思路
; 1. 先获取Modis Grid产品的数据(这里包括获取全局属性StructMetadata.0、LST_Day_1km(陆地和海洋的温度_1km分辨率)数据集及其属性)
; 2. 对上面获取数据进行处理(全局属性提取左上点和右下点的经纬度坐标以及lst数据的行列数、lst数据集的计算(得到真实的lst数据))
; 3. 根据上面得到的两个点的经纬度坐标以及行列数获取x、y方向上的精确分辨率(一个像元的长宽代表的实际距离)
; 4. 有上面的数据可以计算每一个像元的经纬度坐标(像元的纬度和经度分别用一个数组存储, 转换的时候需要这两个数组)
; 5. 确定好投影参数然后得到投影之后的经纬度数组(均是一维)
; 6. 由经纬度数组进行一些系列的处理得到行列数组,最后根据行列数组将lst数据填充到现在的投影好了的坐标系统里
  ; 路径
  in_path = 'D:/IDL_program/experiment_data/chapter_3/modis_grid'
  out_path = 'D:/IDL_program/experiment_data/chapter_3/modis_grid/geo_out'
  ; 检测out_path是否存在,不存在那么创建(当然,你可以亲自去文件资源管理器看看并亲自创建,这里用代码实现仅仅是为了装逼,可惜我装成了._.)
  if file_test(out_path) eq 0 then begin
    file_mkdir, out_path
  endif
  ; 获取所有文件的路径以及文件数量
  file_path_array = file_search(in_path, '*.hdf', count=file_count)
  ; 传入目录(in_path),指定 查找文件的的限制条件(*.hdf), 获取查找到的文件数量(file_count)
  ; 循环获取每个文件的数据以及进行相关处理
  for file_i = 0, file_count - 1 do begin
    ; 记录一下每一次循环开始的时间
    start = systime(1)
    ; 该循环下的文件的路径
    file_path = file_path_array[file_i]
    ; 获取文件的id
    file_id = hdf_sd_start(file_path, /read)
    ; 获取全局属性StructMetadata.0的index
    metadata_indedx = hdf_sd_attrfind(file_id, 'StructMetadata.0')
    ; 传入文件id,传入全局属性的名称(如果是获取数据集属性也是用这个函数,只是传入数据集的id,传入数据集的属性名称)
    ; 获取全局属性StructMetadata.0的数据
    hdf_sd_attrinfo, file_id, metadata_indedx, data=metadata  ; 这里data返回的是一个字符串
    ; 这里传入文件id,传入全局属性的index,data=返回该属性的数据,这里用变量metadata接收
    ; 接下来需要对全局属性的对我们有用的数据进行提取(这里只有左上点和右下点的经纬度坐标需要我们提取)
    ; 获取字符串'UpperLeftPointMtrs'的第一个字符的下标
    start_pos = strpos(metadata, 'UpperLeftPointMtrs')  ; 传入一个字符串格式的变量,再传入需要查找的字符串
    ; 获取字符串'UpperLeftPointMtrs'
    end_pos = strpos(metadata, 'LowerRightMtrs')
    ; 获取'UpperLeftPointMtrs'与'UpperLeftPointMtrs'中间的字符串
    ; 中间字符串的长度
    len = end_pos - start_pos
    ; 截取中间字符串
    str = strmid(metadata, start_pos, len)  ; 传入需要切片的字符串、传入开始切片的位置、传入切片的长度
    ; split字符串——》将得到的中间字符串以某个字符(或者多个字符)作为划分点,将字符串一分为二(当然,如果有多个字符即多个划分点那么就一分为多)
    ; (接上^)得到的多个子字符串以数组形式输出
    son_str_array = strsplit(str, '=(,)', /extract)  ; 传入需要划分的字符串,传入划分的字符(显然这里有=~(~)~,~四个字符作为划分点)
    ; 另外需要说明的是,如果不传入参数/extract,那么输出的每个子字符串的首字符在原字符串种的下标组成的数组,而不是每个子字符串组成的数组
    ; 获取左上点的经纬度坐标
    ul_prj_lon = double(son_str_array[1])
    ; 由于得到的son_str_array[1]是一个字符串形的经度,需要将其转化为浮点型,这里使用double()函数(精度比float()函数高)将其转化为浮点型,下面类似
    ul_prj_lat = double(son_str_array[2])
    ; 上面是提取左上角点的经纬度,现在类似的操作去提取右下角点的经纬度
    start_pos = strpos(metadata, 'LowerRightMtrs')
    end_pos = strpos(metadata, 'Projection')
    ; 对上面从索引为start_pos ————》 end_pos的字符串进行截取
    ; 需要截取的字符串的长度
    len = end_pos - start_pos
    str = strmid(metadata, start_pos, end_pos)  ; 传入需要处理的字符串,传入 截取字符串的第一个字符串的索引,传入 截取字符串的长度
    ; split字符串
    son_str_array = strsplit(str, '=(,)', /extract)  ; 这里操作类似,不在重复
    ; 获取右下角点的经纬度
    lr_prj_lon = double(son_str_array[1])
    lr_prj_lat = double(son_str_array[2])
    ; 获取lst(陆地海洋温度)数据集的数据
    ; 获取lst数据集的index
    lst_index = hdf_sd_nametoindex(file_id, 'LST_Day_1km')  ; 传入数据集所在文件的id,传入数据集的名称
    ; 获取数据集的id
    lst_id = hdf_sd_select(file_id, lst_index)  ; 传入数据集所在文件的id,传入数据集的index
    ; 获取数据集的数据
    hdf_sd_getdata, lst_id, lst_data  ; 传入数据集的id,传入变量lst_data用于接收返回的该数据集的数据
    ; 获取lst数据集的属性(其实这一步可以省去,因为我们可以通过hdf explorer去查看)——》_FillValue、scale_factor属性
    ; 获取属性的index
    fv_index = hdf_sd_attrfind(lst_id, '_FillValue')
    sf_index = hdf_sd_attrfind(lst_id, 'scale_factor')
    ; 获取属性的内容
    hdf_sd_attrinfo, lst_id, fv_index, data=fv_data  ; 传入属性所在数据集的id,传入属性的index,data=返回该属性的内容,这里用变量fv_data接收
    hdf_sd_attrinfo, lst_id, sf_index, data=sf_data
    ; 对lst数据集进行处理
    lst_data = (lst_data ne fv_data[0]) * lst_data * sf_data[0]  ; 虽然这里fv_data只有一个数字,但是它是一个数组,不加[]结果会出乎意料,不信你可以试一下,具体数组与数组、数组与数字...怎么计算自己找一个例子看就明白了,这里不再演示
    ; 现在我们已从文件中获取到了我们需要的所有数据,那么文件就需要关闭(习惯问题和态度问题和素养问题和专业问题...)
    hdf_sd_endaccess, lst_id
    hdf_sd_end, file_id
    ; 获取数据的分辨率(你可以理解为一个像元的长宽(一般长宽相等)代表的实际距离)
    ; 理论上我们知道了左上角点的经纬度,右下角点的经纬度,那么我们只需要知道数据的行列数即可求得分辨率
    ; 获取lst数据(是一个二维数组形式)的行列数
    lst_size = size(lst_data)  ; 这里size()函数返回5个数(好像一维不是,二维也不是,自己试试就知道了)
    ; 第一个数表示维度:lst_data是二维数组,维度是2
    ; 第二个数表示列数
    ; 第三个数表示行数
    ; 第四个数表示数组元素的类型:会返回一个数字,这个数字是某一种类型的代号,譬如1我就认为它代表int、2就代表float型之类
    ; 第五个数表示数组元素的总个数:即列数乘以行数
    ; 获取lst数据的行列数
    lst_column = lst_size[1]  ; lst_size是数组这个应该不需要提醒了
    lst_row = lst_size[2]
    ; 计算lst数据的分辨率
    prj_resolution_x = (lr_prj_lon - ul_prj_lon) / lst_column
    prj_resolution_y = (ul_prj_lat - lr_prj_lat) / lst_row
    ; 计算每一个像元的经纬度并存储
    prj_x = fltarr(lst_column, lst_row)  ; 用来存放每一个像元的经度信息的数组,元素均初始化为0
    prj_y = fltarr(lst_column, lst_row)  ; 用来存放每一个像元的纬度信息的数组,元素均初始化为0
    ; 循环得到每一个像元的经度
    for i=0, lst_column - 1 do begin
      prj_x[i, *] = prj_x[i, *] + ul_prj_lon + prj_resolution_x * i
    endfor
    ; 循环得到每一个像元的纬度
    for i=0, lst_row - 1 do begin
      prj_y[*, i] = prj_y[*, i] + ul_prj_lat - prj_resolution_y * i
    endfor
    ; 初始化投影参数(就是告诉envi,没重投影前,我的投影信息是什么)
    sin_prj=map_proj_init('sinusoidal',/gctp,sphere_radius=6371007.181,center_longitude=0.0,false_easting=0.0,false_northing=0.0)
    ; 将正弦投影坐标转化为经纬度坐标
    geo_loc = map_proj_inverse(prj_x, prj_y, map_structure=sin_prj)  ; 传入正弦投影的经纬度坐标以及投影的参数信息
    ; geo_loc是二维数组,第0列是所有的经度坐标,第1列是所有的纬度坐标
    geo_x = geo_loc[0, *]
    geo_y = geo_loc[1, *]
    ; 获取经纬度坐标的最大小值
    lon_min = min(geo_x)
    lon_max = max(geo_x)
    lat_min = min(geo_y)
    lat_max = max(geo_y)
    ; 由lst数据集名称我们知道这是一个1km分辨率的数据(约等于0.01°),那么为了重投影之后结果不会有太大偏差,这里我们设置前后分辨率不变,后来的分辨率也是0.01°
    geo_resolution = 0.01
    ; 重投影后的列数
    geo_column = ceil((lon_max - lon_min) / geo_resolution)  ; 向上取整(自己理解吧,有需要我再说,下面的floor也是)
    ; 重投影后的行数
    geo_row = ceil((lat_max - lat_min) / geo_resolution)
    ; 重投影之后的lst数据的数组初始化
    box_lst_data = fltarr(geo_column, geo_row)
    ; 将所有lst数据的初始化结果改为-9999.0,因为原始的lst数据的无效值就是0,这里初始化为-9999.0只是为了作出区分
    box_lst_data[*, *] = -9999.0  ; 注意不能box_lst_data = -9999.0
    ; 获取转化后每一个像元的行列数
    geo_column_array = floor((geo_x - lon_min) / geo_resolution)  ; 向下取整
    geo_row_array = floor((geo_y - lat_min) / geo_resolution)
    ; 将原来的lst数据放到现在的box_lst_data
    box_lst_data[geo_column_array, geo_row_array] = lst_data
    ; 异常值(即前面的-9999值)填充
    ; 用来装已经经过处理的lst的数组
    box_lst_data_out = fltarr(geo_column, geo_row)
    ; 进入for循环进行检测(由于异常值需要参考周围的八个点,所以为了方便,这里将最外边的行列排除在外不处理)
    for geo_column_i = 1, geo_column - 2 do begin
      for geo_row_i = 1, geo_row - 2 do begin
        ; 检测当前lst值是否为有效值
        if box_lst_data[geo_column_i, geo_row_i] eq -9999.0 then begin
          ; 以该点为中心创建九宫格窗口
          temp_windows = box_lst_data[geo_column_i-1:geo_column_i+1, geo_row_i-1:geo_row_i+1]
          temp_windows = (temp_windows gt 0) * temp_windows  ; 注意这里是gt而不是ge,因为0.0是_FillValue
          temp_windows_sum = total(temp_windows)  ; 使用total()函数求得数组元素的总和
          temp_windows_num = total(temp_windows gt 0)  ; 求得有效的元素的个数
          ; 是否使用周围的点的lst数据得有一个阈值——》周围的有效点有几个
          if temp_windows_num gt 3 then begin
            box_lst_data_out[geo_column_i, geo_row_i] = temp_windows_sum / temp_windows_num
          endif
        endif else begin
            box_lst_data_out[geo_column_i, geo_row_i] = box_lst_data[geo_column_i, geo_row_i]
        endelse
      endfor  
    endfor
    ; geoinfo信息填写
    geo_info={$
      MODELPIXELSCALETAG:[geo_resolution,geo_resolution,0.0],$
      MODELTIEPOINTTAG:[0.0,0.0,0.0,lon_min,lat_max,0.0],$
      GTMODELTYPEGEOKEY:2,$
      GTRASTERTYPEGEOKEY:1,$
      GEOGRAPHICTYPEGEOKEY:4326,$
      GEOGCITATIONGEOKEY:'GCS_WGS_1984',$
      GEOGANGULARUNITSGEOKEY:9102,$
      GEOGSEMIMAJORAXISGEOKEY:6378137.0,$
      GEOGINVFLATTENINGGEOKEY:298.25722}
    ; 输出
    write_tiff, out_path + '/' + file_basename(file_path, '.hdf') + '_georef.tiff', box_lst_data_out, /float, geotiff=geo_info
    stop = systime(1)  ; 一次循环结束
    print, file_basename(file_path, '.hdf') + ': ' + strcompress(string(stop - start)) + 's'
  endfor
end1. p


4. 题外话

这次我没有遇到比较棘手的问题,主要是一些变量的使用错误、还有一些其它的小毛病犯了之类的。

主要是对于重投影步骤的深入理解,只有理解了才会明白代码每一步在做什么。

不然你有时会对代码存有很大疑虑而一直停滞不前。

但是,非常遗憾,由于种种原因,我并没有将全部我对于重投影的理解以及代码的一些解释放在注释中,只有对关键代码我做出了一点点浅浅的解释,因为要想通俗的去解释这是需要一些篇幅的。

目录
相关文章
|
25天前
|
自然语言处理 数据可视化 前端开发
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
合合信息的智能文档处理“百宝箱”涵盖文档解析、向量化模型、测评工具等,解决了复杂文档解析、大模型问答幻觉、文档解析效果评估、知识库搭建、多语言文档翻译等问题。通过可视化解析工具 TextIn ParseX、向量化模型 acge-embedding 和文档解析测评工具 markdown_tester,百宝箱提升了文档处理的效率和精确度,适用于多种文档格式和语言环境,助力企业实现高效的信息管理和业务支持。
3987 5
从数据提取到管理:合合信息的智能文档处理全方位解析【合合信息智能文档处理百宝箱】
|
15天前
|
存储 分布式计算 Java
存算分离与计算向数据移动:深度解析与Java实现
【11月更文挑战第10天】随着大数据时代的到来,数据量的激增给传统的数据处理架构带来了巨大的挑战。传统的“存算一体”架构,即计算资源与存储资源紧密耦合,在处理海量数据时逐渐显露出其局限性。为了应对这些挑战,存算分离(Disaggregated Storage and Compute Architecture)和计算向数据移动(Compute Moves to Data)两种架构应运而生,成为大数据处理领域的热门技术。
38 2
|
21天前
|
JavaScript API 开发工具
<大厂实战场景> ~ Flutter&鸿蒙next 解析后端返回的 HTML 数据详解
本文介绍了如何在 Flutter 中解析后端返回的 HTML 数据。首先解释了 HTML 解析的概念,然后详细介绍了使用 `http` 和 `html` 库的步骤,包括添加依赖、获取 HTML 数据、解析 HTML 内容和在 Flutter UI 中显示解析结果。通过具体的代码示例,展示了如何从 URL 获取 HTML 并提取特定信息,如链接列表。希望本文能帮助你在 Flutter 应用中更好地处理 HTML 数据。
101 1
|
5天前
|
数据采集 存储 自然语言处理
基于Qwen2.5的大规模ESG数据解析与趋势分析多Agent系统设计
2022年中国上市企业ESG报告数据集,涵盖制造、能源、金融、科技等行业,通过Qwen2.5大模型实现报告自动收集、解析、清洗及可视化生成,支持单/多Agent场景,大幅提升ESG数据分析效率与自动化水平。
|
21天前
|
JSON 前端开发 JavaScript
API接口商品详情接口数据解析
商品详情接口通常用于提供特定商品的详细信息,这些信息比商品列表接口中的信息更加详细和全面。以下是一个示例的JSON数据格式,用于表示一个商品详情API接口的响应。这个示例假定API返回一个包含商品详细信息的对象。
|
1月前
|
API
Vue3组件通信全解析:利用props、emit、provide/inject跨层级传递数据,expose与ref实现父子组件方法调用
Vue3组件通信全解析:利用props、emit、provide/inject跨层级传递数据,expose与ref实现父子组件方法调用
437 0
|
1月前
|
前端开发 算法 JavaScript
无界SaaS模式深度解析:算力算法、链接力、数据确权制度
私域电商的无界SaaS模式涉及后端开发、前端开发、数据库设计、API接口、区块链技术、支付和身份验证系统等多个技术领域。本文通过简化框架和示例代码,指导如何将核心功能转化为技术实现,涵盖用户管理、企业店铺管理、数据流量管理等关键环节。
|
7天前
|
监控 Java 应用服务中间件
高级java面试---spring.factories文件的解析源码API机制
【11月更文挑战第20天】Spring Boot是一个用于快速构建基于Spring框架的应用程序的开源框架。它通过自动配置、起步依赖和内嵌服务器等特性,极大地简化了Spring应用的开发和部署过程。本文将深入探讨Spring Boot的背景历史、业务场景、功能点以及底层原理,并通过Java代码手写模拟Spring Boot的启动过程,特别是spring.factories文件的解析源码API机制。
24 2
|
1月前
|
缓存 Java 程序员
Map - LinkedHashSet&Map源码解析
Map - LinkedHashSet&Map源码解析
67 0
|
1月前
|
算法 Java 容器
Map - HashSet & HashMap 源码解析
Map - HashSet & HashMap 源码解析
54 0

推荐镜像

更多
下一篇
无影云桌面