遥感图像垃圾处理场分割,北京地区高分2图像,3500张图像,共2GB,分割为背景,空地,垃圾,垃圾处理设施四类
遥感图像垃圾处理场分割数据集
规模
- 图像数量:3500张
- 数据量:2GB
- 分辨率:未明确提供,但通常高分2卫星图像的分辨率为1米(多光谱)和0.8米(全色)。
类别
- 背景 (Background)
- 空地 (Empty Land)
- 垃圾 (Garbage)
- 垃圾处理设施 (Waste Treatment Facilities)
数据特点
- 高质量图像:所有图像均为高分辨率的北京地区高分2卫星图像,提供了丰富的细节信息,有助于提高分割精度。
- 多样化场景:涵盖了不同类型的垃圾处理场及其周边环境,确保模型能够适应多种复杂的场景。
- 详细标注:每张图像都附有详细的像素级分割标注,标明了每个像素所属的类别。
- 区域覆盖:专注于北京地区的垃圾处理场,具有地域代表性,适用于特定区域的研究和应用。
应用场景
- 环境监测:帮助环保部门实时监测垃圾处理场的情况,及时发现和处理环境污染问题。
- 城市规划:支持城市规划部门在进行土地利用规划时考虑垃圾处理场的位置和规模。
- 资源管理:优化垃圾处理设施的布局和资源配置,提高垃圾处理效率。
- 研究与教育:用于科研机构的研究以及相关院校的教学,帮助学生和研究人员更好地了解遥感图像分割技术。
- 智能监控:集成到智能监控系统中,自动识别和分类垃圾处理场的不同区域,提升监控效率。
数据集结构
假设数据集的文件结构如下:
waste_site_segmentation_dataset/
├── images/
│ ├── 0001.jpg
│ ├── 0002.jpg
│ └── ...
├── masks/
│ ├── 0001.png
│ ├── 0002.png
│ └── ...
└── metadata.csv
metadata.csv
文件内容示例:
image_id, mask_id, split
0001.jpg, 0001.png, train
0002.jpg, 0002.png, train
...
masks/0001.png
示例(像素级标注):
- 每个像素值对应一个类别:
- 0: 背景
- 1: 空地
- 2: 垃圾
- 3: 垃圾处理设施
代码示例
下面是一个完整的Python脚本示例,展示如何加载数据集、使用预训练的分割模型进行垃圾处理场分割,并可视化分割结果。我们将使用PyTorch和常见的分割库(如Segmentation Models PyTorch)。
1. 安装依赖库
首先,确保安装了必要的依赖库。可以在项目目录中的requirements.txt
文件中列出这些依赖库,然后运行以下命令进行安装
pip install -r requirements.txt
requirements.txt
文件内容示例:
torch==1.10.0
torchvision==0.11.1
opencv-python-headless==4.5.4.60
segmentation-models-pytorch==0.2.1
albumentations==1.1.0
2. 加载数据集和预训练模
import os
import cv2
import torch
import numpy as np
from segmentation_models_pytorch import Unet
from albumentations import Compose, Resize, Normalize
from albumentations.pytorch import ToTensorV2
# 设置设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 加载预训练模型
model_path = 'path_to_your_model_directory/unet_waste_site_segmentation.pth'
model = Unet(encoder_name='resnet34', classes=4, activation=None)
model.load_state_dict(torch.load(model_path, map_location=device))
model.to(device)
model.eval()
# 图像预处理
def get_preprocessing(preprocessing_fn):
"""构建预处理函数"""
_transform = [
Resize(height=256, width=256, interpolation=cv2.INTER_LINEAR),
Normalize(mean=(0.485, 0.456, 0.406), std=(0.229, 0.224, 0.225)),
ToTensorV2()
]
return Compose(_transform)
preprocessing = get_preprocessing(None)
# 加载图像
def load_image(image_path):
img = cv2.imread(image_path)
if img is None:
print(f"Failed to load image: {image_path}")
return None
return img
# 进行推理
def segment_image(img, model, preprocessing, device):
# 预处理图像
sample = preprocessing(image=img)
img = sample['image'].unsqueeze(0).to(device)
# 推理
with torch.no_grad():
pred = model(img)
pred = torch.softmax(pred, dim=1).argmax(dim=1).squeeze().cpu().numpy()
return pred
# 可视化分割结果
def visualize_segmentation(img, mask, class_colors):
h, w, _ = img.shape
mask = cv2.resize(mask, (w, h), interpolation=cv2.INTER_NEAREST)
colored_mask = np.zeros_like(img)
for i in range(len(class_colors)):
colored_mask[mask == i] = class_colors[i]
overlay = cv2.addWeighted(img, 0.7, colored_mask, 0.3, 0)
return overlay
# 主函数
def main(image_dir, model, preprocessing, device):
class_colors = {
0: [0, 0, 0], # 背景
1: [0, 255, 0], # 空地
2: [255, 0, 0], # 垃圾
3: [0, 0, 255] # 垃圾处理设施
}
for image_name in os.listdir(image_dir):
if image_name.endswith('.jpg'):
image_path = os.path.join(image_dir, image_name)
img = load_image(image_path)
if img is not None:
pred_mask = segment_image(img, model, preprocessing, device)
result = visualize_segmentation(img, pred_mask, class_colors)
cv2.imshow('Waste Site Segmentation', result)
cv2.setWindowTitle('Waste Site Segmentation', f'Image: {image_name}')
if cv2.waitKey(0) & 0xFF == ord('q'):
break
cv2.destroyAllWindows()
# 假设图像存储在'image'目录下
image_dir = 'path_to_your_image_directory'
# 运行主函数
main(image_dir, model, preprocessing, device)
说明
- 路径设置:请根据实际的数据集路径调整
path_to_your_image_directory
和path_to_your_model_directory
。 - 文件命名:假设图像文件名分别为
.jpg
。如果实际命名规则不同,请相应修改代码。 - 可视化:通过绘制分割掩码并叠加到原图上,可以直观地看到图像中的不同区域。
进一步的应用
- 训练深度学习模型:可以使用这个数据集来进一步训练或微调分割模型,以提高分割精度。
- 数据增强:为了增加数据集的多样性和鲁棒性,可以使用数据增强技术(如旋转、翻转、缩放等)生成更多的训练样本。
- 评估与优化:通过交叉验证和测试集评估模型性能,并不断优化模型参数,以提高分割准确率。
这个数据集对于垃圾处理场的自动分割具有重要的实用价值,可以帮助相关部门及时发现和处理垃圾处理场的问题,提升环境管理和资源利用效率。