【数据处理】xarray 数据处理教程:从入门到精通

目录

  • xarray 数据处理教程:从入门到精通
    • 一、简介
      • **核心优势**
    • 二、安装与导入
      • 1. 安装
      • 2. 导入库
    • 三、数据结构
      • (一)DataArray
      • (二) Dataset
      • (三)关键说明
    • 四、数据操作
      • (一)索引与切片
        • 1. 基于标签选择(`.sel()`)
        • 2. 基于位置选择(`.isel()`)
        • **3. `.sel()` 和 `.isel()` 联合使用**
        • **4. 多维选择与切片**
        • 5. 关键说明
      • (二) 数据计算
        • 1. 聚合运算
          • (1) 计算单个维度的平均值
          • (2) 计算多个维度的平均值
          • (3) 计算单个维度的标准差
          • (4) 计算多个维度的标准差
          • (5) 忽略缺失值计算统计量
          • (6) 关键说明
        • 2. 算术运算
        • **3. 数据重塑**
          • (1) `.stack()`:将多个维度堆叠成一个新维度
          • (2) `.transpose()`:调整维度顺序
          • (3) `.stack()` + `.transpose()` 联合使用
          • (4) 关键说明
        • 4. 数据聚合
        • 5. 合并两个数据集
        • 6. 应用自定义函数
    • **五、数据可视化**
      • (一)二维分布图
      • (二)时间序列图
    • 六、高级功能
      • (一) 缺失值处理
        • 1. 填充缺失值
        • 2. 插值
      • (二) 时间重采样
      • (三)地理信息处理
        • 1. 设置坐标系
        • 2. 绘制地理投影图
    • 七、数据输入与输出
      • (一)读取 NetCDF 文件
      • (二)保存数据
    • 八、性能优化
      • (一)分块处理(Dask)
      • (二) 内存优化
    • 九、总结
      • (一)核心流程
      • (二)关键优势
      • (三)注意事项

xarray 数据处理教程:从入门到精通

在这里插入图片描述

一、简介

xarray 是 Python 中用于处理多维数组数据的库,特别适用于带有标签(坐标)的科学数据(如气象、海洋、遥感等)。它基于 NumPy 和 Pandas,支持高效的数据操作、分析和可视化。

核心优势

  • 标签化操作:通过维度名和坐标直接访问数据,无需记忆索引位置。
  • 多维支持:天然支持多维数组(如时间、纬度、经度)。
  • 集成工具:内置 NetCDF、HDF5 等格式读写,支持 Dask 处理大文件。
  • 可视化:与 Matplotlib 深度集成,简化数据绘图流程。

二、安装与导入

1. 安装

pip install xarray netCDF4 dask rioxarray

或使用 Conda:

conda install -c conda-forge xarray netCDF4 dask rioxarray

2. 导入库

import xarray as xr
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt

三、数据结构

(一)DataArray

  • 定义:带坐标的 N 维数组,类似带标签的 NumPy 数组。
  • 示例代码
import xarray as xr
import numpy as npdata = np.random.rand(12, 5, 100, 200)
coords = {'time': np.arange(12),'sample': np.arange(5),'lat': np.linspace(-90, 90, 100),'lon': np.linspace(-180, 180, 200)
}
da = xr.DataArray(data, dims=['time', 'sample', 'lat', 'lon'], coords=coords)
  • 输出结果
<xarray.DataArray (time: 12, sample: 5, lat: 100, lon: 200)>
array([[[[...]],  # 12个时间步 × 5个样本 × 100纬度 × 200经度的随机值...,[[...]]],...,[[...]]])
Coordinates:* time      (time) int64 0 1 2 ... 11* sample    (sample) int64 0 1 2 3 4* lat       (lat) float64 -90.0 -89.1 -88.2 ... 88.2 89.1 90.0* lon       (lon) float64 -180.0 -179.1 -178.2 ... 178.2 179.1 180.0
  • 表1:数据结构DataArray
操作/方法功能输入参数输出参数
xarray.DataArray创建带有维度和坐标的多维数组(如海温数据)data: 数组数据;dims: 维度名列表;coords: 坐标字典生成的 xarray.DataArray 对象

(二) Dataset

  • 定义:类似字典的容器,包含多个 DataArray(变量),共享坐标。

  • 表:xarray.Dataset 操作总结

操作/方法功能输入参数输出参数
xr.Dataset创建多变量数据集变量字典、坐标字典xarray.Dataset 对象
.sel() / .isel()按标签或索引选择数据维度名和值子数据集或子数组
.mean() / .std()计算维度统计量需求平均的维度名统计后的数据集或数据数组
.to_netcdf()保存为 NetCDF 文件文件路径和写入模式无返回值(保存文件)
xr.open_dataset()读取 NetCDF 文件文件路径和读取引擎xarray.Dataset 对象
.merge()合并两个数据集另一个 Dataset 对象合并后的 xarray.Dataset
.apply()应用自定义函数自定义函数和输入维度应用后的数据集
.chunk()设置数据分块分块大小字典分块后的 xarray.Dataset
  • 创建示例
import xarray as xr
import numpy as np
import pandas as pdds = xr.Dataset({"temperature": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),"humidity": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),},coords={"time": pd.date_range("2025-01-01", periods=3),"lat": np.linspace(-90, 90, 10),"lon": np.linspace(-180, 180, 20),}
)
  • 输出结果
<xarray.Dataset>
Dimensions:     (time: 3, lat: 10, lon: 20)
Coordinates:* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...* lat         (lat) float64 -90.0 -81.0 ... 81.0 90.0* lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (time, lat, lon) float64 0.1234 0.5678 ...humidity    (time, lat, lon) float64 0.9876 0.4321 ...

(三)关键说明

  1. Dataset vs DataArray
    • xarray.Dataset 适合处理多变量数据(如温度、湿度、降水)。
    • xarray.DataArray 适合单一变量的多维数组操作。
  2. 工作流示例
    # 读取数据并选择子集
    ds = xr.open_dataset("data.nc")
    subset = ds.sel(lat=slice(-90, -60), lon=slice(-180, -120))# 计算统计量并保存
    mean_ds = subset.mean(dim="time")
    mean_ds.to_netcdf("mean_data.nc")
    

四、数据操作

(一)索引与切片

表:索引与切片

操作/方法功能输入参数输出参数
.isel() / .sel()快速提取特定维度数据isel: 按索引提取;sel: 按坐标标签提取提取后的子数组(xarray.DataArray
1. 基于标签选择(.sel()

场景:从数据集中提取特定时间步和纬度范围的数据。

subset = ds.sel(time="2025-01-01", lat=-90)

输出结果

<xarray.Dataset>
Dimensions:     (lat: 1, lon: 20)
Coordinates:time        datetime64[ns] 2025-01-01lat         float64 -90.0lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (lon) float64 0.1234 0.5678 ...humidity    (lon) float64 0.9876 0.4321 ...
2. 基于位置选择(.isel()

场景:从数据集中提取第一个时间步和前三个纬度的数据。

# 按索引位置选择数据
subset_isel = ds.isel(time=0, lat=slice(0, 3))

输出结果

<xarray.Dataset>
Dimensions:     (time: 1, lat: 3, lon: 20)
Coordinates:time        datetime64[ns] 2025-01-01* lat         (lat) float64 -90.0 -76.36 -62.73* lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (time, lat, lon) float64 0.1234 0.5678 ...
3. .sel().isel() 联合使用

场景:结合标签和索引选择数据(例如,选择特定时间步和固定经度索引)。

# 按时间标签和经度索引选择数据
subset_mixed = ds.sel(time="2025-01-01").isel(lon=0)

输出结果

<xarray.Dataset>
Dimensions:     (time: 1, lat: 10, lon: 1)
Coordinates:time        datetime64[ns] 2025-01-01* lat         (lat) float64 -90.0 -81.0 ... 81.0 90.0lon         float64 -180.0
Data variables:temperature (time, lat, lon) float64 0.1234 0.5678 ...

4. 多维选择与切片

场景:同时选择多个维度(时间、纬度、经度)并使用切片操作。

# 按时间标签、纬度范围和经度切片选择数据
subset_slice = ds.sel(time="2025-01-01",lat=slice(-90, -60),lon=slice(-180, -120)
)

输出结果

<xarray.Dataset>
Dimensions:     (time: 1, lat: 3, lon: 7)
Coordinates:time        datetime64[ns] 2025-01-01* lat         (lat) float64 -90.0 -76.36 -62.73* lon         (lon) float64 -180.0 -163.6 ... -126.3 -120.0
Data variables:temperature (time, lat, lon) float64 0.1234 0.5678 ...
5. 关键说明
  1. .sel() vs .isel()

    • .sel():使用坐标标签(如 time="2025-01-01"lat=-90)进行选择,适合已知具体坐标的场景。
    • .isel():使用索引位置(如 time=0lat=slice(0, 3))进行选择,适合已知数组索引的场景。
  2. 切片操作

    • 可以通过 slice(start, end) 实现对维度的范围选择(例如 lat=slice(-90, -60))。
    • 切片是左闭右开的,即包含 start,不包含 end
  3. 多维联合选择

    • 可以联合使用 .sel().isel(),例如先按标签选择时间,再按索引选择经度。
    • 也可以通过链式调用实现多步选择(如 ds.sel(...).isel(...))。

(二) 数据计算

1. 聚合运算
(1) 计算单个维度的平均值

场景:从数据集中计算时间维度(time)的平均值。

import xarray as xr
import numpy as np
import pandas as pd# 创建示例数据集
ds = xr.Dataset({"temperature": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),"humidity": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),},coords={"time": pd.date_range("2025-01-01", periods=3),"lat": np.linspace(-90, 90, 10),"lon": np.linspace(-180, 180, 20),}
)# 计算时间维度的平均值
mean_time = ds.mean(dim="time")

输出结果

<xarray.Dataset>
Dimensions:     (lat: 10, lon: 20)
Coordinates:* lat         (lat) float64 -90.0 -81.0 -72.0 ... 72.0 81.0 90.0* lon         (lon) float64 -180.0 -171.0 -162.0 ... 162.0 171.0 180.0
Data variables:temperature (lat, lon) float64 0.4567 0.8901 ...humidity    (lat, lon) float64 0.7654 0.3210 ...

(2) 计算多个维度的平均值

场景:从数据集中计算时间和纬度维度的平均值。

# 计算时间和纬度维度的平均值
mean_time_lat = ds.mean(dim=["time", "lat"])

输出结果

<xarray.Dataset>
Dimensions:     (lon: 20)
Coordinates:* lon         (lon) float64 -180.0 -171.0 -162.0 ... 162.0 171.0 180.0
Data variables:temperature (lon) float64 0.6789 ...humidity    (lon) float64 0.5432 ...
(3) 计算单个维度的标准差

场景:从数据集中计算纬度维度(lat)的标准差。

# 计算纬度维度的标准差
std_lat = ds.std(dim="lat")

输出结果

<xarray.Dataset>
Dimensions:     (time: 3, lon: 20)
Coordinates:* time        (time) datetime64[ns] 2025-01-01 ... 2025-01-03* lon         (lon) float64 -180.0 -171.0 -162.0 ... 162.0 171.0 180.0
Data variables:temperature (time, lon) float64 0.2345 0.6789 ...humidity    (time, lon) float64 0.3456 0.7890 ...
(4) 计算多个维度的标准差

场景:从数据集中计算时间和经度维度的标准差。

# 计算时间和经度维度的标准差
std_time_lon = ds.std(dim=["time", "lon"])

输出结果

<xarray.Dataset>
Dimensions:     (lat: 10)
Coordinates:* lat         (lat) float64 -90.0 -81.0 -72.0 ... 72.0 81.0 90.0
Data variables:temperature (lat) float64 0.1234 ...humidity    (lat) float64 0.4567 ...
(5) 忽略缺失值计算统计量

场景:数据集中包含缺失值(NaN),需要在计算时跳过缺失值。

# 创建包含缺失值的数据集
ds_nan = xr.Dataset({"temperature": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),},coords={"time": pd.date_range("2025-01-01", periods=3),"lat": np.linspace(-90, 90, 10),"lon": np.linspace(-180, 180, 20),}
)# 随机插入缺失值
ds_nan.temperature.values[0, 0, 0] = np.nan# 计算时间维度的平均值(跳过缺失值)
mean_time_skipna = ds_nan.mean(dim="time", skipna=True)

输出结果

<xarray.Dataset>
Dimensions:     (lat: 10, lon: 20)
Coordinates:* lat         (lat) float64 -90.0 -81.0 -72.0 ... 72.0 81.0 90.0* lon         (lon) float64 -180.0 -171.0 -162.0 ... 162.0 171.0 180.0
Data variables:temperature (lat, lon) float64 0.4567 0.8901 ...

(6) 关键说明
  1. .mean().std() 的区别

    • .mean():计算指定维度的平均值
    • .std():计算指定维度的标准差,默认为样本标准差(ddof=1)。
  2. 维度选择

    • 可以指定单个维度(如 dim="time")或多个维度(如 dim=["time", "lat"])。
    • 维度减少后,输出数据集的维度会相应调整(如从 (time, lat, lon) 变为 (lat, lon))。
  3. 缺失值处理

    • 通过 skipna=True 可以跳过缺失值(NaN)进行计算,避免因缺失值导致整个统计结果为 NaN
2. 算术运算
# 温度乘以 2,降水加 10
new_ds = ds * 2 + 10
3. 数据重塑

总结表格

操作/方法功能输入参数输出参数
.stack()将多个维度堆叠成一个新维度new_dim_name: 新维度名;dim: 原始维度列表维度被堆叠后的 xarray.Dataset
.transpose()调整维度顺序(不改变维度数量)*dims: 新维度顺序维度顺序调整后的 xarray.Dataset

(1) .stack():将多个维度堆叠成一个新维度

场景:将 latlon 维度堆叠成一个名为 space 的新维度。
示例代码

import xarray as xr
import numpy as np
import pandas as pd# 创建示例数据集
ds = xr.Dataset({"temperature": (["time", "lat", "lon"], np.random.rand(3, 10, 20)),},coords={"time": pd.date_range("2025-01-01", periods=3),"lat": np.linspace(-90, 90, 10),"lon": np.linspace(-180, 180, 20),}
)# 将 lat 和 lon 堆叠成 space 维度
stacked_ds = ds.stack(space=["lat", "lon"])

输出结果

<xarray.Dataset>
Dimensions:     (time: 3, space: 200)
Coordinates:* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...space       (space) MultiIndex- lat     (space) float64 -90.0 -90.0 ... 90.0 90.0- lon     (space) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (time, space) float64 0.1234 0.5678 ...

(2) .transpose():调整维度顺序

场景:将 time, lat, lon 的维度顺序调整为 lon, lat, time
示例代码:

# 调整维度顺序
transposed_ds = ds.transpose("lon", "lat", "time")

输出结果

<xarray.Dataset>
Dimensions:     (lon: 20, lat: 10, time: 3)
Coordinates:* lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0* lat         (lat) float64 -90.0 -81.0 ... 81.0 90.0* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...
Data variables:temperature (lon, lat, time) float64 0.1234 0.5678 ...
(3) .stack() + .transpose() 联合使用

场景:先将 latlon 堆叠成 space,再调整维度顺序为 space, time
示例代码:

# 堆叠后调整维度顺序
stacked_transposed_ds = ds.stack(space=["lat", "lon"]).transpose("space", "time")

输出结果

<xarray.Dataset>
Dimensions:     (space: 200, time: 3)
Coordinates:space       (space) MultiIndex- lat     (space) float64 -90.0 -90.0 ... 90.0 90.0- lon     (space) float64 -180.0 -171.0 ... 171.0 180.0* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...
Data variables:temperature (space, time) float64 0.1234 0.5678 ...

(4) 关键说明
  1. .stack() vs .transpose()

    • .stack()减少维度数量,将多个维度合并为一个新维度(如 latlonspace)。
    • .transpose()不改变维度数量,仅调整维度的排列顺序(如 time, lat, lonlon, lat, time)。
  2. 应用场景

    • .stack()
      • 将多维数据转换为二维,便于进行某些计算(如机器学习模型输入)。
      • 简化高维数据的可视化(如将 latlon 合并为 space 后绘图)。
    • .transpose()
      • 调整数据维度顺序以匹配其他数据集或模型的输入格式。
      • 提高代码可读性,使维度顺序更符合逻辑(如先经度后纬度)。
  3. 注意事项

    • .stack() 会生成 MultiIndex,可通过 .unstack() 恢复原始维度。
    • .transpose() 不会修改原始数据,而是返回一个新对象(惰性操作)。
4. 数据聚合
操作/方法功能输入参数输出参数
.groupby() / .mean()按维度分组计算均值group: 分组维度(如 time.month);dim: 聚合维度聚合后的 xarray.DataArray
.resample()时间序列重采样(如日→月)freq: 重采样频率(如 MS 表示月初);dim: 时间维度名重采样后的 xarray.DataArray

示例代码

# 按月份分组计算均值
monthly_mean = da.groupby("time.month").mean(dim="time")# 时间序列重采样(日→月)
monthly_resample = da.resample(time="MS").mean()
5. 合并两个数据集
ds2 = xr.Dataset({"precipitation": (["time", "lat", "lon"], np.random.rand(3, 10, 20))})
ds_merged = ds.merge(ds2)

输出结果

<xarray.Dataset>
Dimensions:     (time: 3, lat: 10, lon: 20)
Coordinates:* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...* lat         (lat) float64 -90.0 -81.0 ... 81.0 90.0* lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (time, lat, lon) float64 0.1234 0.5678 ...humidity    (time, lat, lon) float64 0.9876 0.4321 ...precipitation (time, lat, lon) float64 0.3456 0.7890 ...
6. 应用自定义函数
def custom_func(arr):return arr.max() - arr.min()ds_custom = ds.apply(custom_func)

输出结果

<xarray.Dataset>
Dimensions:     (time: 3, lat: 10, lon: 20)
Coordinates:* time        (time) datetime64[ns] 2025-01-01 2025-01-02 ...* lat         (lat) float64 -90.0 -81.0 ... 81.0 90.0* lon         (lon) float64 -180.0 -171.0 ... 171.0 180.0
Data variables:temperature (time, lat, lon) float64 0.4321 0.8765 ...humidity    (time, lat, lon) float64 0.5432 0.9876 ...

五、数据可视化

表:可视化方法

操作/方法功能输入参数输出参数
.plot()快速可视化(等值线图、色阶图)x, y: 维度名;cbar_kwargs: 颜色条参数;transform: 投影转换matplotlib.axes.Axes 对象
.plot.scatter()散点图可视化x, y: 维度名;c: 颜色变量;size: 点大小matplotlib.axes.Axes 对象
  • 示例代码
# 绘制等值线图
da.plot.contourf(x="lon", y="lat", cmap="viridis")# 绘制散点图
da.plot.scatter(x="lon", y="lat", c="temperature", size="precipitation")

(一)二维分布图

# 绘制温度的空间分布
ds["temp"].isel(time=0).plot(cmap="viridis")
plt.title("Temperature Distribution")
plt.show()

(二)时间序列图

# 绘制单个网格点的时间序列
ds["temp"].sel(lat=40, lon=100).plot.line(x="time")
plt.title("Temperature Time Series")
plt.show()

六、高级功能

(一) 缺失值处理

1. 填充缺失值
# 用 0 填充缺失值
filled_temp = ds["temp"].fillna(0)
2. 插值
# 使用线性插值填充缺失值
interpolated = ds["temp"].interpolate_na(dim="lat", method="linear")

(二) 时间重采样

# 将日数据重采样为月均值
monthly_mean = ds.resample(time="1M").mean()

(三)地理信息处理

1. 设置坐标系
import rioxarray
ds.rio.write_crs("EPSG:4326", inplace=True)  # 设置为 WGS84 坐标系
2. 绘制地理投影图
import cartopy.crs as ccrs
ax = plt.axes(projection=ccrs.PlateCarree())
ds["temp"].isel(time=0).plot(ax=ax, transform=ccrs.PlateCarree())
ax.coastlines()
plt.show()

七、数据输入与输出

表:NetCDF 读取与保存

操作/方法功能输入参数输出参数
xr.open_dataset读取单个 NetCDF 文件filename: 文件路径;engine: 读取引擎(如 netcdf4xarray.Dataset 对象
xr.to_netcdf保存数据为 NetCDF 文件filename: 保存路径;mode: 写入模式(如 w 表示覆盖)无返回值(直接写入文件)
xr.open_mfdataset批量读取多文件数据集paths: 文件路径列表;engine: 读取引擎(如 h5netcdf);parallel: 是否并行读取;preprocess: 预处理函数合并后的 xarray.Dataset
xr.save_mfdataset批量保存数据集到文件datasets: 数据集列表;paths: 保存路径列表;encoding: 变量编码参数(如压缩设置)无返回值(直接写入文件)

(一)读取 NetCDF 文件

ds = xr.open_dataset("data.nc")  # 读取单个文件
ds = xr.open_mfdataset("data/*.nc", combine="by_coords")  # 合并多个文件

示例代码

# 批量读取 NetCDF 文件
import xarray as xr
ds = xr.open_mfdataset("data/*.nc", engine="h5netcdf", parallel=True)# 批量保存数据集
xr.save_mfdataset([ds1, ds2], ["output1.nc", "output2.nc"], encoding={var: {"zlib": True}})

(二)保存数据

# 保存为 NetCDF 文件并启用压缩
ds.to_netcdf("output.nc", encoding={"temp": {"zlib": True}})

八、性能优化

表:数据分块与性能优化

操作/方法功能输入参数输出参数
.chunk()设置数据分块大小chunks: 分块字典(如 {"time": 10, "lat": 100}带分块的 xarray.DataArray
.compute()触发延迟计算实际计算结果(xarray.DataArrayxarray.Dataset

(一)分块处理(Dask)

import dask.array as da
ds = ds.chunk({"time": 10})  # 将时间维度分块

(二) 内存优化

  • 使用 .persist().compute() 控制计算时机。
  • 避免不必要的中间变量。

示例代码

# 设置分块
da_chunked = da.chunk({"time": 10, "lat": 100})# 触发计算
result = da_chunked.mean().compute()

九、总结

(一)核心流程

  1. 读取数据 → 2. 访问变量 → 3. 选择/切片 → 4. 计算/分析 → 5. 保存/可视化

(二)关键优势

  • 标签化操作:通过维度名和坐标直接访问数据。
  • 高效处理:支持多维数据、地理信息和大文件分块。
  • 易用性:与 Pandas、Matplotlib 无缝集成。

(三)注意事项

  • 使用 .sel().isel() 时注意维度名称和索引范围。
  • 大数据集需结合 Dask 分块处理(.chunk())。
  • 保存时启用压缩(zlib=True)可减少文件体积。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/diannao/83156.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

网站漏洞存在哪些危害,该如何做好预防?

网站漏洞的危害及预防措施 一、网站漏洞的主要危害 网站漏洞是攻击者利用系统、应用或配置中的缺陷&#xff0c;实施恶意行为的入口。其危害包括但不限于以下方面&#xff1a; 数据泄露与隐私侵犯 危害&#xff1a;攻击者通过SQL注入、XSS等漏洞窃取用户数据&#xff08;如密…

WEB攻防-PHP漏洞解析

Web攻防之PHP漏洞解析 目录结构 引言 1.1 PHP在CTF Web方向的核心地位1.2 报告目标与结构说明1.3 PHP安全研究的方法论代码执行漏洞 2.1 漏洞原理与历史演进2.2 危险函数全解析与利用链2.3 绕过过滤的20种高级技巧2.4 实战案例&#xff1a;从CVE到CTF赛题复现2.5 防御方案与安…

YOLO11解决方案之距离计算探索

概述 Ultralytics提供了一系列的解决方案&#xff0c;利用YOLO11解决现实世界的问题&#xff0c;包括物体计数、模糊处理、热力图、安防系统、速度估计、物体追踪等多个方面的应用。 测量两个物体之间的间距被称为特定空间内的距离计算&#xff0c;YOLO11使用两个边界框的中心…

mongodb处理时区转换问题

1. 程序查询直接使用&#xff08;java&#xff09;Date即可, 因为直接支持 2. 若方便查看日期需要进行格式和时区转换 db.task.aggregate([{ $match: {userId: 113633}},{ $project: {userId: 1,endTime: 1,formattedDate: {$dateToString: {format: "%Y-%m-%d %H:%M:%S&…

基于中心点预测的视觉评估与可视化流程

基于中心点预测的视觉评估与可视化流程 基于中心点预测的视觉评估与可视化流程一、脚本功能概览二、可视化与评分机制详解1. 真实框解析2. 调用模型处理帧3. 预测中心点与真实值的对比4. 打分策略5. 图像可视化三、目录结构要求四、运行方式五、应用场景与拓展思路六、总结七,…

Comparator 比较器

在Java中&#xff0c;Comparator.comparingInt(String::length) 是一个用于创建比较器&#xff08;Comparator&#xff09;的静态方法调用&#xff0c;它的核心作用是定义一个比较规则&#xff0c;使对象按照特定属性&#xff08;这里是字符串长度&#xff09;进行比较。下面从…

无人设备遥控器之无线通讯技术篇

无人设备遥控器的无线通讯技术是确保遥控操作准确、稳定、高效进行的关键。以下是对无人设备遥控器无线通讯技术的详细解析&#xff1a; 一、主要无线通讯技术类型 Wi-Fi通讯技术 原理&#xff1a;基于IEEE 802.11标准&#xff0c;通过无线接入点&#xff08;AP&#xff09;…

Android Coli 3 ImageView load two suit Bitmap thumb and formal,Kotlin(七)

Android Coli 3 ImageView load two suit Bitmap thumb and formal&#xff0c;Kotlin&#xff08;七&#xff09; 在 Android Coli 3 ImageView load two suit Bitmap thumb and formal&#xff0c;Kotlin&#xff08;六&#xff09;-CSDN博客 的基础上改进&#xff0c;主要是…

ET EntityRef EntityWeakRef 类分析

EntityRef EntityWeakRef 相同点 也是这两个的作用&#xff1a;这两个都是用来表示一个实体引用。一般来说使用一个对象&#xff0c;直接持有对象就可以&#xff0c;但是如果对象来自于对象池&#xff0c;这个时候直接持有对象不合适&#xff0c;对象可能已经被对象池回收&…

基于Leaflet和天地图的免费运动场所WebGIS可视化-以长沙市为例

目录 前言 一、免费运动场所数据整理 1、本地宝数据简介 2、Java后台数据解析 二、Leaflet前端地图展示 1、基础数据准备 2、具体位置及属性标记 三、成果展示 1、空间位置分布 2、东风路立交桥运动公园 3、芙蓉区花侯路浏阳河大桥下方 4、梅岭国际小区 5、湖南大学…

Flutter——数据库Drift开发详细教程(六)

目录 1.视图2.视图中列的可空性3.DAO4.流查询5.高级用途6.注意事项 1.视图 也可以将SQL 视图定义 为 Dart 类。为此&#xff0c;请编写一个抽象类来扩展View。此示例声明了一个视图&#xff0c;用于读取示例中架构中某个类别中添加的待办事项数量&#xff1a; abstract class C…

Kafka 4.0版本的推出:数据处理新纪元的破晓之光

之前做大数据相关项目&#xff0c;在项目中都使用过kafka。在数字化时代&#xff0c;数据如洪流般涌来&#xff0c;如何高效处理这些数据成为关键。Kafka 就像是一条 “智能数据管道”&#xff0c;在数据的世界里扮演着至关重要的角色。如果你第一次接触它&#xff0c;不妨把它…

RabbitMQ高级篇-MQ的可靠性

目录 MQ的可靠性 1.如何设置数据持久化 1.1.交换机持久化 1.2.队列持久化 1.3.消息持久化 2.消息持久化 队列持久化&#xff1a; 消息持久化&#xff1a; 3.非消息持久化 非持久化队列&#xff1a; 非持久化消息&#xff1a; 4.消息的存储机制 4.1持久化消息&…

ctfshow权限维持

1&#xff0c;web670 我们先看一下这个php代码 error_reporting(0);#关闭错误报告 highlight_file(__FILE__);#内容高亮显示$a$_GET[action];#get传参switch($a){case cmd:eval($_POST[cmd]);break;case check:file_get_contents("http://checker/api/check");#获取…

力扣算法ing(71 / 100)

5.15 哈希表合集—349.两个数组的交集 给定两个数组 nums1 和 nums2 &#xff0c;返回 它们的 交集 。输出结果中的每个元素一定是 唯一 的。我们可以 不考虑输出结果的顺序 。 示例 1&#xff1a; 输入&#xff1a;nums1 [1,2,2,1], nums2 [2,2] 输出&#xff1a;[2]示例…

(面试)Handler消息处理机制原理

Handler是用于实现线程间通信和任务调度的一种机&#xff08;Handler、 Looper、MessageQueue、 Message&#xff09;。Handler 允许线程间发送Message或Runnable对象进行通信。在Android中UI修改只能通过UI Thread&#xff0c;子线程不能更新UI。如果子线程想更新UI&#xff0…

Dify 实战教程 | 5分钟打造文本生成应用( Stable Diffusion 提示词生成器)

AI 绘画离不开「提示词&#xff08;Prompt&#xff09;」——如何构造清晰、生动、有表现力的提示词&#xff0c;直接决定你生成图像的质量。而 Stable Diffusion 的提示词构造相比 Midjourney 更加自由&#xff0c;但也更考验组织语言的能力。 今天这篇教程&#xff0c;教你零…

RPC框架源码分析学习(二)

RPC框架源码分析与原理解读 前言 在分布式系统开发中&#xff0c;远程过程调用(RPC)是一项基础且关键的技术。通过对KVstorageBaseRaft-cpp项目RPC模块的源码分析&#xff0c;我深入理解了RPC框架的工作原理和实现细节。本文将从程序员视角分享我的学习心得。 框架概述 本项…

当下流行的智能体通信协议:MCP、A2A、ANP 分别是什么?

在当前人工智能&#xff08;AI&#xff09;智能体生态系统中&#xff0c;智能体之间的有效沟通至关重要。为了让AI智能体能够高效、安全地协同工作&#xff0c;业界提出了多种通信协议。其中&#xff0c;MCP、A2A 和 ANP 代表了三个关键层级的通信协议&#xff0c;各自应对不同…

为什么 cout<<“中文你好“ 能正常输出中文

一, 简答: 受python3字符串模型影响得出的下文C字符串模型结论 是错的&#xff01;C的字符串和python2的字符串模型类似&#xff0c;也就是普通的字符串是ASCII字符串和字节串两种语义&#xff0c;类似重载或多态&#xff0c;有时候解释为整数&#xff0c;有时候是字节串。Uni…