【模型复现】自制数据集上复现目标检测域自适应 SSDA-YOLO
- 1. 环境安装
- 2. 数据集制作
- 2.1 数据准备
- 2.2 数据结构
- 3. 模型训练
- 3.1 数据文件配置
- 3.2 训练超参数配置
- 3.3 模型训练
- 4. 模型验证
- 4.1 验证超参数配置
- 4.2 模型验证
- 5. 模型推理
- 5.1 推理超参数配置
- 5.2 模型推理
- 6. 踩坑记录
- 6.1 AssertionError: train_target_real_fake: No labels in xxx/labels/train.cache. Can not train without labels.
- 6.2 ValueError: could not broadcast input array from shape (427,325,3) into shape (428,325,3)
- 6.3 RuntimeError: result type Float can't be cast to the desired output type long int.
- 6.4 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:2!
Code 链接: SSDA-YOLO
Paper 链接: SSDA-YOLO: Semi-Supervised Domain Adaptive YOLO for Cross-Domian Object Detection
1. 环境安装
# 创建环境
conda create -n ssda_yolo python=3.9# 激活环境
conda activate ssda_yolo# torch 安装
# 本机 CUDA 为 11.8,故安装了符合要求的 pytorch==1.13,这里需要自行根据 CUDA 版本安装适配的 torch 版本
pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu117# clone 代码
git clone https://github.com/hnuzhy/SSDA-YOLO.git# pip 包
cd SSDA-YOLO
pip install -r requirements.txt
2. 数据集制作
2.1 数据准备
- 以下面展示
README.md
中提到的CityScapes --> CityScapes Foggy
域适应为例,需要准备数据集CityScapes
、CityScapes Foggy
、Normal-style --> Foggy-style
、Foggy-style --> Normal-style
。
- 其中
Normal-style --> Foggy-style
和Foggy-style --> Normal-style
均由CUT
模型训练得来。CUT
模型训练过程见链接: 【模型复现】自制数据集上复现风格迁移模型 CUT:Contrastive Unpaired Translation
2.2 数据结构
- 准备训练数据,数据集的文件结构为:
my_datasets/ ├──cityscapes_source │ ├──cityscapes_real │ │ ├──images/train │ │ │ ├──xxx.jpg │ │ │ └──xxx.jpg │ │ └──labels/train │ │ ├──xxx.txt │ │ └──xxx.txt │ └──cityscapes_fake │ ├──images/train │ │ ├──xxx.jpg │ │ └──xxx.jpg │ └──labels/train │ ├──xxx.txt │ └──xxx.txt └──cityscapesfoggy_target├──cityscapesfoggy_real│ ├──images│ │ ├──train│ │ │ └──xxx.jpg│ │ │ └──xxx.jpg│ │ └──val│ │ └──xxx.jpg│ │ └──xxx.jpg│ └──labels│ ├──train│ │ └──xxx.txt│ │ └──xxx.txt│ └──val│ └──xxx.txt│ └──xxx.txt└──cityscapesfoggy_fake├──images/train│ ├──xxx.jpg│ └──xxx.jpg└──labels/train├──xxx.txt└──xxx.txt
3. 模型训练
3.1 数据文件配置
- 在
./data/yamls_sda
路径下新建数据配置yaml
文件并进行配置,修改数据加载路径等参数。path
: 数据存放路径train_source_real
:源域真实训练数据train_source_fake
:源域上使用 CUT 生成目标域形式的数据train_target_real
:目标域真实训练数据train_target_fake
:目标域上使用 CUT 生成源域形式的数据test_target_real
:目标域真实测试数据nc
:标签数量names
:标签名称
- 数据配置文件示例如下:
3.2 训练超参数配置
- 通过
ssda_yolov5_train.py
进行训练超参数配置,按需进行超参数配置。
3.3 模型训练
- 训练指令
python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
- 在终端中运行训练命令,若看到下述界面,即成功复现!!!
4. 模型验证
4.1 验证超参数配置
- 通过
ssda_yolov5_test.py
进行验证超参数配置,按需进行超参数配置。
4.2 模型验证
- 验证指令
python ssda_yolov5_test.py
- 验证成功界面如下。
5. 模型推理
- 官方代码中并未给出模型推理脚本,但分析代码不难发现,推理脚本可复用
YOLOv5-5.0
的推理脚本detect.py
,见链接 YOLOv5-5.0 detect.py,将代码放在主目录下配置参数即可。
5.1 推理超参数配置
- 通过
detect.py
进行推理超参数配置,按需进行超参数配置。
5.2 模型推理
- 推理指令
python detect.py
- 推理成功界面如下。
6. 踩坑记录
6.1 AssertionError: train_target_real_fake: No labels in xxx/labels/train.cache. Can not train without labels.
- 解决方法:
- 虽然
target
的labels
训练中未使用,但也需按照规范放置images
和labels
.
- 虽然
6.2 ValueError: could not broadcast input array from shape (427,325,3) into shape (428,325,3)
- 问题分析:
- 在进行
mosaic
增强时,图片尺寸不符。查看soure_fake
和source_real
的尺寸后,发现经过CUT
生成的图像和源域的图像中存在尺寸不一致的情况,导致增强时报错。
- 在进行
- 解决方法:
- 分别将
soure_fake & source_real
和target_fake & target_real
的尺寸调整一致后进行模型训练。 - 实现脚本如下:
import os from PIL import Image# 图像文件夹路径 folder_a = './real/images/train' # 存放jpg图像的文件夹 folder_b = './fake/images/train' # 存放png图像的文件夹for filename in os.listdir(folder_a):if filename.lower().endswith('.jpg'):jpg_path = os.path.join(folder_a, filename)png_path = os.path.join(folder_b, filename.replace('.jpg', '.png'))if os.path.exists(png_path):with Image.open(jpg_path) as jpg_image:with Image.open(png_path) as png_image:jpg_size = jpg_image.sizepng_size = png_image.size# 比较尺寸if jpg_size != png_size:print(f"尺寸不一致: {filename}")# 如果尺寸不一致,调整png图像的大小png_image_resized = png_image.resize(jpg_size, Image.ANTIALIAS)png_image_resized.save(png_path)else:print(f"尺寸一致: {filename}")else:print(f"在文件夹B中找不到对应的png文件: {filename}")
- 分别将
6.3 RuntimeError: result type Float can’t be cast to the desired output type long int.
- 解决方法:
- 在
utils/loss.py
第 216 行进行如下修改:
# indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices indices.append((b, a, gj.clamp_(0, gain[3].long() - 1), gi.clamp_(0, gain[2].long() - 1))) # image, anchor, grid indice
- 修改完成后如下所示。
- 在
6.4 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cuda:2!
- 解决方法:
- 在使用多卡时,训练命令使用
python -m torch.distributed.launch --nproc_per_node 8 ssda_yolov5_train.py
- 在使用多卡时,训练命令使用