查找大量时序遥感文件缺失、不连贯的成像日期:Python代码

cnblogs 2024-10-14 12:09:00 阅读 75

本文介绍批量下载大量多时相的遥感影像文件后,基于Python语言与每一景遥感影像文件的文件名,对这些已下载的影像文件加以缺失情况的核对,并自动统计、列出未下载影像所对应的时相的方法~

本文介绍批量下载大量多时相的遥感影像文件后,基于Python语言与每一景遥感影像文件的文件名,对这些已下载的影像文件加以缺失情况的核对,并自动统计、列出未下载影像所对应的时相的方法。

批量下载大量遥感影像文件对于RS学生与从业人员可谓十分常见。在我们之前的文章中,就介绍过同样基于文件名称,对未成功下载的遥感影像加以统计,并自动筛选出未下载成功的遥感影像的下载链接的方法;在本文中,我们同样基于Python与栅格文件的文件名称,对类似的需求加以实现。

首先,本文的需求和前述提及的文章略有不同。在这里,我们已经下载好了大量的、以遥感数据成像时间为文件名的栅格文件,如下图所示。

image

其中,不难发现我们这里的遥感影像数据是从每一年的<code>001天开始,每隔8天生成一景影像,每一景影像的名称后3位数字就是001009017这样表示天数的格式;此外,前4位数字表示年份,我们这里有从2020开始到2022结束、一共3年的遥感影像数据。

现在,我们希望对于上述文件加以核对,看看在这3年中,是否有未下载成功的遥感影像文件;如果有的话,还希望输出下载失败的文件个数和对应的文件名称(也就是对应文件的成像时间)。

明确了需求后,我们就可以开始具体的操作。首先,本文所需用到的代码如下。

# -*- coding: utf-8 -*-

"""

Created on Sat Dec 30 23:32:54 2023

@author: fkxxgis

"""

import os

def check_missing_dates(folder_path):

start_year = 2020

end_year = 2022

days_per_file = 8

missing_dates = []

for year in range(start_year, end_year + 1):

for day in range(1, 366, days_per_file):

file_name = str(year) + "{:03d}".format(day) + ".tif"

file_path = os.path.join(folder_path, file_name)

if not os.path.exists(file_path):

missing_dates.append(file_name[:-4])

return missing_dates

folder_path = "F:/Data_Reflectance_Rec/NDVI"

missing_dates = check_missing_dates(folder_path)

print("Total missing dates:", len(missing_dates))

print("Missing dates:")

for date in missing_dates:

print(date)

这段代码整体思路也很明确。

首先,我们导入所需的模块。在这里,os模块用于文件路径操作。

接下来,我们定义一个名为check_missing_dates的函数,其接收一个文件夹路径作为参数;这个函数用于检查遗漏的日期。在这个函数中,我们定义了起始年份start_year和结束年份end_year,以及每个文件之间的日期间隔 days_per_file;随后,创建一个空列表missing_dates,用于存储遗漏的日期。

随后,我们使用嵌套的循环遍历每一年和每一天。在每一天的循环中,构建文件名,如"2020017.tif",并构建文件的完整路径。接下来,使用os.path.exists()函数检查文件路径是否存在——如果文件不存在,则将日期添加到遗漏日期列表missing_dates中。在循环结束后,返回遗漏日期列表missing_dates

在函数外部,我们定义要检查的文件夹路径folder_path,然后就可以调用check_missing_dates函数,传入文件夹路径参数,执行日期检查,将返回的遗漏日期列表赋值给missing_dates

最后,我们打印遗漏日期的总数len(missing_dates),并打印每个具体的遗漏日期。

执行上述代码,即可出现如下图所示的结果。即在我这里,目前有8个日期的遥感影像文件没有下载成功,我们再对照这8个遥感影像的日期,重新到相关网站中下载即可。

至此,大功告成。



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。