LBA-ECO ND-02 巴西塔帕若斯国家森林土壤体积含水量

简介: 本数据集包含1999–2001年巴西塔帕若斯国家森林降雨排除实验中土壤体积含水量(VWC)的实测与模拟数据,旨在研究干旱对亚马逊森林的影响。提供实测及STELLA模型模拟的ASCII格式数据,支持通过Python工具访问与分析。

​LBA-ECO ND-02 Soil Volumetric Water Content, Tapajos National Forest, Brazil

简介

本数据集报告了 1999 年至 2001 年在巴西塔帕若斯国家森林 67 公里处的塞卡弗洛雷斯塔点进行的降雨排除实验中每月测得的土壤体积含水量(VWC)。实验目的是观察严重水分胁迫对湿润亚马逊森林的潜在影响(Nepstad 2002)。包含两个以逗号分隔的 ASCII 码文件,其中包含测量的 VWC,一个用于对照地,另一个用于降雨排除地。

作者利用这些测量值建立了一个土壤水分分布日变化模型。模拟的每日 VWC 值也包含在测量的 VWC 文件中。为了进行比较,本文提供了使用 STELLA 模型(该模型考虑了降雨和植物吸水)对对照地块和处理地块的 VWC 模拟结果。模拟结果有两个 ASCII 逗号分隔的文件。详情请参阅 Belk 等人,2007 年。

摘要

代码
!pip install leafmap
!pip install pandas
!pip install folium
!pip install matplotlib
!pip install mapclassify

import pandas as pd
import leafmap

url = "https://github.com/opengeos/NASA-Earth-Data/"
df = pd.read_csv(url, sep="\t")
df

leafmap.nasa_data_login()

results, gdf = leafmap.nasa_data_search(
short_name="ND02_REE_Soil_VWC_1061",
cloud_hosted=True,
bounding_box=(-47.89, -1.38, -47.56, -1.0),
temporal=("1999-05-19", "2001-05-19"),
count=-1, # use -1 to return all datasets
return_gdf=True,
)

gdf.explore()

leafmap.nasa_data_download(results[:5], out_dir="data")

相关文章
|
2天前
|
弹性计算 人工智能 安全
云上十五年——「弹性计算十五周年」系列客户故事(第二期)
阿里云弹性计算十五年深耕,以第九代ECS g9i实例引领算力革新。携手海尔三翼鸟、小鹏汽车、微帧科技等企业,实现性能跃升与成本优化,赋能AI、物联网、智能驾驶等前沿场景,共绘云端增长新图景。
|
8天前
|
存储 弹性计算 人工智能
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
2025年9月24日,阿里云弹性计算团队多位产品、技术专家及服务器团队技术专家共同在【2025云栖大会】现场带来了《通用计算产品发布与行业实践》的专场论坛,本论坛聚焦弹性计算多款通用算力产品发布。同时,ECS云服务器安全能力、资源售卖模式、计算AI助手等用户体验关键环节也宣布升级,让用云更简单、更智能。海尔三翼鸟云服务负责人刘建锋先生作为特邀嘉宾,莅临现场分享了关于阿里云ECS g9i推动AIoT平台的场景落地实践。
【2025云栖精华内容】 打造持续领先,全球覆盖的澎湃算力底座——通用计算产品发布与行业实践专场回顾
|
7天前
|
人工智能 自然语言处理 自动驾驶
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
关于举办首届全国大学生“启真问智”人工智能模型&智能体大赛决赛的通知
|
7天前
|
云安全 人工智能 自然语言处理
阿里云x硅基流动:AI安全护栏助力构建可信模型生态
阿里云AI安全护栏:大模型的“智能过滤系统”。
|
8天前
|
编解码 自然语言处理 文字识别
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
凌晨,Qwen3-VL系列再添新成员——Dense架构的Qwen3-VL-8B、Qwen3-VL-4B 模型,本地部署友好,并完整保留了Qwen3-VL的全部表现,评测指标表现优秀。
633 7
Qwen3-VL再添丁!4B/8B Dense模型开源,更轻量,仍强大
|
10天前
|
存储 机器学习/深度学习 人工智能
大模型微调技术:LoRA原理与实践
本文深入解析大语言模型微调中的关键技术——低秩自适应(LoRA)。通过分析全参数微调的计算瓶颈,详细阐述LoRA的数学原理、实现机制和优势特点。文章包含完整的PyTorch实现代码、性能对比实验以及实际应用场景,为开发者提供高效微调大模型的实践指南。
755 2