Python读取多个栅格文件并提取像元的各波段时间序列数据与变化值

简介: Python读取多个栅格文件并提取像元的各波段时间序列数据与变化值

  本文介绍基于Python语言,读取文件夹下大量栅格遥感影像文件,并基于给定的一个像元,提取该像元对应的全部遥感影像文件中,指定多个波段的数值;修改其中不在给定范围内的异常值,并计算像元数值在每一景遥感影像中变化的差值;最终将这些数据保存为一个新的Excel表格文件的方法。

  首先,我们来看一下本文需要具体实现的需求。现在有一个文件夹,如下图所示;其中,存放了大量的遥感影像文件,且每一景遥感影像都是同一个空间位置、不同成像时间对应的遥感影像,因此其空间参考信息、栅格的行数与列数等都是一致的。此外,每一景遥感影像都具有5个不同的波段。

  我们现在希望,给定一个像元(也就是给定了这个像元在遥感影像中的行号与列号),提取出在指定的波段中(我们这里就提取全部的5个波段),该像元对应的每一景遥感影像的数值(也就是提取了该像元在每一景遥感影像、每一个波段的数值);随后,将提取到的大于1的数值修改为1,并计算像素值在每一景遥感影像中数值的差值;最后,将提取到的数据保存为一个Excel表格文件。

  明确了需求,我们就可以撰写代码;具体如下。

# -*- coding: utf-8 -*-
"""
Created on Thu Jul 27 11:25:55 2023
@author: fkxxgis
"""
import os
import pandas as pd
from osgeo import gdal
def extract_pixel_time_series(input_folder, output_csv):
    tif_files = [file for file in os.listdir(input_folder) if file.endswith('.tif')]
    target_row = 495
    target_col = 60
    time_series_df = pd.DataFrame()
    for tif_file in tif_files:
        file_path = os.path.join(input_folder, tif_file)
        dataset = gdal.Open(file_path)
        for band in range(dataset.RasterCount):
            band_data = dataset.GetRasterBand(band + 1).ReadAsArray()
            pixel_value = band_data[target_row, target_col]
            date = tif_file[10: 24]
            time_series_df.at[date, f'Band_{band + 1}'] = pixel_value
        dataset = None
    for index in range(len(time_series_df.columns)):
        time_series_df = time_series_df.apply(lambda x: x.clip(upper = 1))
        new_col_name = time_series_df.columns[index] + "_diff"
        time_series_df[new_col_name] = time_series_df.iloc[:, index].diff()
    time_series_df.to_csv(output_csv)
# 示例用法
input_folder = r"E:\01_Reflectivity\FiveBands"
output_csv = r"E:\01_Reflectivity\Data.csv"
extract_pixel_time_series(input_folder, output_csv)

  首先,我们需要导入必要的模块和库。其中os用于操作文件和文件夹,pandas用于处理数据和创建DataFrame格式数据,而gdal则用于读取栅格数据;关于gdal库的配置方法,大家可以参考文章Anaconda环境GDAL库基于whl文件的配置方法https://blog.csdn.net/zhebushibiaoshifu/article/details/128320388)。

  随后,我们对extract_pixel_time_series这个函数加以定义。这个函数接收两个参数input_folderoutput_csv,分别表示存储栅格数据的文件夹路径和输出的Excel文件的路径。随后,列出input_folder文件夹下所有以.tif结尾的文件,并存储在列表中。其次,循环遍历每个栅格文件,构建完整的文件路径,用于后面的数据读取,并使用gdal.Open()打开栅格文件,获取数据集对象。

  接下来,通过循环遍历每个波段。读取当前波段的数据,并存储在band_data变量中。随后基于我们给定的像元位置,提取目标像元的数值(位置就是这个[target_row, target_col])。此外,为了使得我们保存结果时可以记录每一个数值对应的成像日期,因此需要从文件名中提取日期,并存储在date变量中。

  接下来,通过time_series_df.at[date, f'Band_{band + 1}'],将像元值存储在DataFrame中,行索引为日期,列名为Band_1Band_2等;随后,将数据集对象dataset设为None,释放内存资源。

  接下来,我们将大于1的数值加以处理,并计算每个波段随时间变化的数值之差。遍历time_series_df的每一列,并对于每一列使用clip(upper=1)将超过1的值截断为1;随后,为每一列创建新列,列名为原列名加上_diff,存储该列差值。

  最后,我们将处理后的时间序列数据保存为Excel表格文件即可。

  运行上述代码,我们即可获得多个遥感影像文件中,给定像元位置处,像元数值的时间变化序列,并可以获得其变化值。

  至此,大功告成。

欢迎关注:疯狂学习GIS

相关文章
|
1天前
|
存储 索引 Python
Python入门:6.深入解析Python中的序列
在 Python 中,**序列**是一种有序的数据结构,广泛应用于数据存储、操作和处理。序列的一个显著特点是支持通过**索引**访问数据。常见的序列类型包括字符串(`str`)、列表(`list`)和元组(`tuple`)。这些序列各有特点,既可以存储简单的字符,也可以存储复杂的对象。 为了帮助初学者掌握 Python 中的序列操作,本文将围绕**字符串**、**列表**和**元组**这三种序列类型,详细介绍其定义、常用方法和具体示例。
Python入门:6.深入解析Python中的序列
|
6天前
|
数据采集 数据安全/隐私保护 Python
从零开始:用Python爬取网站的汽车品牌和价格数据
在现代化办公室中,工程师小李和产品经理小张讨论如何获取懂车帝网站的汽车品牌和价格数据。小李提出使用Python编写爬虫,并通过亿牛云爬虫代理避免被封禁。代码实现包括设置代理、请求头、解析网页内容、多线程爬取等步骤,确保高效且稳定地抓取数据。小张表示理解并准备按照指导操作。
从零开始:用Python爬取网站的汽车品牌和价格数据
|
1天前
|
算法 Serverless 数据处理
从集思录可转债数据探秘:Python与C++实现的移动平均算法应用
本文探讨了如何利用移动平均算法分析集思录提供的可转债数据,帮助投资者把握价格趋势。通过Python和C++两种编程语言实现简单移动平均(SMA),展示了数据处理的具体方法。Python代码借助`pandas`库轻松计算5日SMA,而C++代码则通过高效的数据处理展示了SMA的计算过程。集思录平台提供了详尽且及时的可转债数据,助力投资者结合算法与社区讨论,做出更明智的投资决策。掌握这些工具和技术,有助于在复杂多变的金融市场中挖掘更多价值。
22 12
|
1月前
|
数据采集 Web App开发 数据可视化
Python用代理IP获取抖音电商达人主播数据
在当今数字化时代,电商直播成为重要的销售模式,抖音电商汇聚了众多达人主播。了解这些主播的数据对于品牌和商家至关重要。然而,直接从平台获取数据并非易事。本文介绍如何使用Python和代理IP高效抓取抖音电商达人主播的关键数据,包括主播昵称、ID、直播间链接、观看人数、点赞数和商品列表等。通过环境准备、代码实战及数据处理与可视化,最终实现定时任务自动化抓取,为企业决策提供有力支持。
|
2月前
|
数据采集 存储 XML
python实战——使用代理IP批量获取手机类电商数据
本文介绍了如何使用代理IP批量获取华为荣耀Magic7 Pro手机在电商网站的商品数据,包括名称、价格、销量和用户评价等。通过Python实现自动化采集,并存储到本地文件中。使用青果网络的代理IP服务,可以提高数据采集的安全性和效率,确保数据的多样性和准确性。文中详细描述了准备工作、API鉴权、代理授权及获取接口的过程,并提供了代码示例,帮助读者快速上手。手机数据来源为京东(item.jd.com),代理IP资源来自青果网络(qg.net)。
|
27天前
|
存储 数据采集 数据处理
如何在Python中高效地读写大型文件?
大家好,我是V哥。上一篇介绍了Python文件读写操作,今天聊聊如何高效处理大型文件。主要方法包括:逐行读取、分块读取、内存映射(mmap)、pandas分块处理CSV、numpy处理二进制文件、itertools迭代处理及linecache逐行读取。这些方法能有效节省内存,提升效率。关注威哥爱编程,学习更多Python技巧。
|
6月前
|
SQL JSON 关系型数据库
n种方式教你用python读写excel等数据文件
n种方式教你用python读写excel等数据文件
99 1
|
8月前
|
存储 Python 内存技术
python WAV音频文件处理—— (1)读写WAV文件
python WAV音频文件处理—— (1)读写WAV文件
210 14
|
Python
python读写execle文件数据
python读写execle文件数据
|
9月前
|
数据挖掘 索引 Python
Python 读写 Excel 文件
Python 读写 Excel 文件
186 0

热门文章

最新文章

推荐镜像

更多