前言
随着智能交通系统的发展,交通信号灯的准确识别对于提高道路安全和交通效率具有至关重要的作用。传统的交通信号灯识别方法依赖于固定的传感器和摄像头,存在安装成本高、维护困难等问题。为了解决这些问题,我们启动了这个项目,目的是利用YOLOV8这一先进的深度学习技术,开发一个基于车载摄像头的交通信号灯自动识别系统。
通过对车载摄像头拍摄的交通信号灯图片数据集进行深入分析和标注,我们训练了YOLOV8模型,使其能够精确识别不同类型和状态的交通信号灯。这一系统能够实时处理车载摄像头捕获的图像,自动识别交通信号灯状态,为驾驶员提供准确的信号灯信息。
基于此项目,设计了一个使用Pyqt5库来搭建页面展示系统。本系统支持的功能包括训练模型的导入、初始化;置信度与IOU阈值的调节、图像上传、检测、可视化结果展示、结果导出与结束检测;视频的上传、检测、可视化结果展示、结果导出与结束检测;摄像头的上传、检测、可视化结果展示与结束检测;已检测目标信息列表、位置信息;以及推理用时。本博文提供了完整的Python代码和使用教程,适合新入门的朋友参考,完整代码资源文件请转至文末的下载链接。
优势
-
高效率:自动化的识别系统减少了对固定传感器的依赖,降低了安装和维护成本。
-
高准确性:YOLOV8模型的先进性确保了交通信号灯识别的高准确度,减少了误判的可能性。
-
实时性:系统能够实时处理图像数据,为驾驶员提供即时的交通信号灯状态信息。
-
灵活性:基于车载摄像头的系统可以适应不同的车辆和道路环境,具有很好的通用性。
-
数据驱动:系统收集的数据可以用于进一步分析,为交通管理和规划提供科学依据。
应用前景
-
智能驾驶辅助:系统可以作为智能驾驶辅助系统的一部分,帮助车辆更安全、更高效地行驶。
-
交通信号灯状态监测:交通管理部门可以利用该系统实时监控交通信号灯的工作状态,及时发现并修复故障。
-
交通流量分析:通过分析交通信号灯状态数据,可以对交通流量进行更准确的预测和分析。
-
交通规划与优化:系统收集的数据可以用于交通信号灯的优化配置,提高交通效率。
-
自动驾驶技术:对于自动驾驶车辆,准确的交通信号灯识别是实现安全驾驶的关键技术之一。
-
驾驶员行为研究:系统可以辅助研究驾驶员在不同交通信号灯状态下的驾驶行为,为驾驶培训提供参考。
一、软件核心功能介绍及效果演示
软件主要功能
-
支持
图片、图片批量、视频及摄像头
进行检测,同时摄像头可支持内置摄像头和外设摄像头; -
可对
检测结果进行单独分析
,并且显示单个检测物体的坐标、置信度等
; -
界面可实时显示
目标位置
、检测结果
、检测时间
、置信度
、检测结果回滚
等信息; -
支持
图片
、视频
及摄像头
的结果保存,将检测结果保持为excel文件;
界面参数设置说明
-
标签4 摄像头源/相机/网络源
; -
标签5 交并比阈值
:目标检测时的iou参数
,只有目标检测框的交并比大于该值,结果才会显示; -
标签6 置信度阈值
:目标检测时的conf参数
,只有检测出的目标置信度大于该值,结果才会显示; -
标签7 显卡选择
:在进行推理时是否使用显卡
,默认勾选(使用显卡); -
标签8 半精度选择
:启用半精度(FP16)推理
,可加快支持的 GPU 上的模型推理速度,同时将对精度的影响降至最低,默认不勾选(不使用半精度); -
标签9 图片推理尺寸
: 在推理时将推理图片固定的尺寸; -
标签10 数据集的配置文件
:数据集在训练时的配置文件(.yaml); -
标签11 训练好的模型
:最终要进行推理的模型,一般选择最优的一个模型; -
标签12 类别名
:该项目的所有类别,可以方便在后续查看某一个类别。
视频演示
车载摄像头交通信号灯检测识别系统_哔哩哔哩_bilibili
图片检测演示
-
点击
打开图片
按钮,选择需要检测的图片,或者点击打开文件夹
按钮,选择需要批量检测图片所在的文件夹,操作演示如下: -
点击表格中的指定行,界面会显示该行表格所写的信息内容。
视频检测演示
-
点击
视频按钮
图标,打开选择需要检测的视频,在点击开始运行
会自动显示检测结果。再次点击停止按钮
,会停止检测视频。 -
点击表格中的指定行,界面会显示该行表格所写的信息内容。
摄像头检测演示
-
在
选择相机源
中输入需要检测的摄像头(可以是电脑自带摄像头,也可以是外接摄像头,视频流等方式),然后点击摄像头图标
来固定选择的推理流方式,最后在点击开始运行
即可开始检测,当点击停止运行
时则关闭摄像头检测。 -
点击表格中的指定行,界面会显示该行表格所写的信息内容。
检测结果保存
点击导出数据
按钮后,会将当前选择的图片【含批量图片】、视频或者摄像头
的检测结果进行保存为excel文档,结果会存储在output
目录下。
二、环境搭建
创建专属环境
conda create -n yolo python==3.8
激活专属环境
conda activate yolo
安装torch-GPU库
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple "torch-2.0.1+cu118-cp38-cp38-win_amd64.whl"
安装torchvision-GPU库
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple "torchvision-0.15.2+cu118-cp38-cp38-win_amd64.whl"
安装ultralytics库
pip install ultralytics -i https://pypi.tuna.tsinghua.edu.cn/simple
测试环境
yolo predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg'
此时就表明环境安装成功!!!
安装图形化界面库 pyqt5
pip install pyqt5 -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install pyqt5-tools -i https://pypi.tuna.tsinghua.edu.cn/simple
三、算法原理
YOLOv8是一种前沿的深度学习技术,它基于先前YOLO版本在目标检测任务上的成功,进一步提升了性能和灵活性,在精度和速度方面都具有尖端性能。在之前YOLO 版本的基础上,YOLOv8 引入了新的功能和优化,使其成为广泛应用中各种物体检测任务的理想选择。主要的创新点包括一个新的骨干网络、一个新的 Ancher-Free 检测头和一个新的损失函数,可以在从 CPU 到 GPU 的各种硬件平台上运行。
YOLOv8目标检测算法具有如下的几点优势:
(1)更友好的安装/运行方式;
(2)速度更快、准确率更高;
(3)新的backbone,将YOLOv5中的C3更换为C2F;
(4)YOLO系列第一次使用anchor-free;
(5)新的损失函数。
YOLO各版本性能对比
网络结构
YOLOv8模型的整体结构如下图所示:
YOLOv8与YOLOv5模型最明显的差异是使用C2F模块替换了原来的C3模块;另外Head 部分变化最大,从原先的耦合头变成了解耦头,并且从 YOLOv5 的 Anchor-Based 变成了 Anchor-Free。
YOLOv8的网络架构包含了多个关键组件,这些组件共同工作以实现快速而准确的目标检测。首先是其创新的特征提取网络(Backbone),YOLOv8的Backbone采用了最新的网络设计理念,通过深层次的特征融合和精细的特征提取策略来增强对目标的识别能力。这一策略的成功关键在于其特征提取器能够充分捕获目标的细微特征,同时保持计算效率。
YOLOv8在训练策略上也进行了优化。与YOLOv7相比,YOLOv8采用了SPFF(Spatial Pyramid Fusion Fast)策略,该策略通过高效的多尺度特征融合提高了模型对不同大小目标的检测能力。此外,YOLOv8在训练过程中引入了一种名为Task Aligned Assigner的新技术,这种技术能够更精准地将预测框与真实目标对齐,从而提高检测的准确率。
在损失函数的设计上,YOLOv8进行了创新,采用了JFL(Joint Family Losses),这是一种集成了多个损失函数的复合损失函数,能够同时优化目标检测的多个方面。这些损失函数包括用于提升模型对目标位置和大小预测准确性的CIOU Loss,以及优化分类准确性的分类损失函数。JFL的设计允许YOLOv8更全面地考虑检测任务中的不同需求,通过协调各种损失来提升总体的性能。
YOLOv8的原理不仅在于其创新的技术点,更在于这些技术如何被综合应用于解决实际的目标检测问题。通过其精心设计的网络架构、高效的训练策略以及综合的损失函数设计,YOLOv8实现了在保持实时性的同时,提高了在复杂场景下的检测准确率。这些改进使得YOLOv8成为了一个强大的工具,适用于从自动驾驶到智能视频监控等多种应用场景。
四、模型的训练、评估与推理
数据集准备
使用的数据集为SJTU Small Traffic Light Dataset (S(2)TLD),其中包含大约 1,080 * 1,920 像素和 720 * 1,280 像素的 5,786 张图像。它还包含 5 个类别(包括红色、黄色、绿色、关闭和等待)的 1,4130 个实例。 这些场景涵盖了相当多的道路场景和典型:
-
繁忙的街景内城,
-
密集的走走停停的交通
-
照明/曝光变化剧烈
-
闪烁/波动的交通信号灯
-
多个可见的交通信号灯
-
可能与交通信号灯混淆的图像部件(例如大型圆形尾灯)
图片数据集的存放格式如下:
下载数据集后,然后运行下述代码:
-
将解压的数据集放在 VOCDataset 文件夹里面;
-
运行splitDataset.py,用于划分数据集;
-
运行xml2txt.py,用于得到训练标注文件;
-
运行ViewCategory.py,用于查看一共有那些类别;
-
mydata.yaml,用于填写模型训练的数据配置文件。
注意:在xml2txt.py和mydata.yaml中的类别名称的顺序要一致。
模型训练
数据准备完成后,通过调用train.py
文件进行模型训练,epochs
参数用于调整训练的轮数,代码如下:
from ultralytics import YOLO# build from YAML and transfer weights
model = YOLO('yolov8n.yaml').load('./weights/yolov8n.pt')# Train the model
model.train(data='./VOCData/mydata.yaml', epochs=100, imgsz=640)
训练结果分析
YOLOv8在训练结束后,可以在runs/
目录下找到训练过程及结果文件,如下所示:
P_curve.png
confusion_matrix_normalized.png
训练 batch
验证 batch
模型推理
模型训练完成后,可以得到一个最佳的训练结果模型best.pt
文件,在runs/trian/weights
目录下。我们通过使用该文件进行后续的推理检测。
图片检测代码如下:
from ultralytics import YOLO# Load a model
model = YOLO('./runs/detect/train/weights/best.pt')# Run batched inference on a list of images
model.predict("./img", imgsz=640, save=True, device=0)
执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。
五、获取方式
本文涉及到的完整全部程序文件:包括
python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频
等(见下图),获取方式见文末:注意:该代码基于Python3.8开发,运行界面的主程序为
GUI.py
,其他测试脚本说明见上图。为确保程序顺利运行,请按照requirements.txt
配置软件运行所需环境。
关注下方公众号:【AI算法与电子竞赛】,发送【YOLO系列源码】即可获取下载方式
六、链接作者
欢迎关注我的公众号:@AI算法与电子竞赛
硬性的标准其实限制不了无限可能的我们,所以啊!少年们加油吧!