引言
在现代城市中,行人和车辆的检测与计数对交通管理和城市规划具有重要意义。通过使用深度学习技术,可以实现对行人和车辆的实时检测与计数,提高交通管理的效率。本文将详细介绍如何构建一个基于深度学习的行人车辆检测与计数系统,包括环境搭建、数据准备、模型训练、系统实现和用户界面设计等步骤。
系统概述
本系统的实现流程如下:
- 环境搭建
- 数据收集与处理
- 模型训练
- 系统实现
- 用户界面设计
环境搭建
首先,需要搭建一个适合深度学习的开发环境。本文使用Python 3.8或以上版本,并依赖于多个深度学习和图像处理库。
安装必要的库
使用以下命令安装所需库:
pip install numpy pandas matplotlib opencv-python torch torchvision ultralytics pyqt5
数据收集与处理
数据收集
收集包含行人和车辆的图像数据集,可以从公开的行人和车辆数据集下载,或者通过摄像头自行采集。确保数据集包含不同角度、不同光照条件下的行人和车辆图像。
数据处理
将图像数据整理到指定的文件夹结构,并标注行人和车辆的位置。以下是示例的文件夹结构:
datasets/├── images/│ ├── train/│ │ ├── image1.jpg│ │ ├── image2.jpg│ ├── val/│ │ ├── image1.jpg│ │ ├── image2.jpg├── labels/├── train/│ ├── image1.txt│ ├── image2.txt├── val/├── image1.txt├── image2.txt
每个标签文件的内容如下:
class x_center y_center width height
其中,class
表示类别编号(行人和车辆分别有不同的类别编号),x_center
、y_center
为归一化后的中心坐标,width
和height
为归一化后的宽度和高度。
模型训练
使用YOLO模型进行训练。
配置文件
创建一个配置文件config.yaml
:
path: datasets
train: images/train
val: images/val
test: images/testnc: 2 # 类别数
names: ['person', 'vehicle']
训练代码
使用以下代码训练模型:
from ultralytics import YOLO# 加载模型
model = YOLO('yolov8n.pt')# 训练模型
model.train(data='config.yaml', epochs=50, imgsz=640, batch=16, lr0=0.01)
系统实现
训练好的模型可以用于实时行人和车辆检测与计数。使用OpenCV读取视频流,并调用YOLO模型进行检测与计数。
检测与计数代码
import cv2
from ultralytics import YOLO# 加载训练好的模型
model = YOLO('best.pt')# 打开视频流
cap = cv2.VideoCapture('traffic_video.mp4')while cap.isOpened():ret, frame = cap.read()if not ret:break# 检测行人和车辆results = model(frame)person_count = 0vehicle_count = 0for result in results:bbox = result['bbox']label = result['label']confidence = result['confidence']if label == 'person':person_count += 1elif label == 'vehicle':vehicle_count += 1# 画框和标签cv2.rectangle(frame, (bbox[0], bbox[1]), (bbox[2], bbox[3]), (0, 255, 0), 2)cv2.putText(frame, f'{label} {confidence:.2f}', (bbox[0], bbox[1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)# 显示计数结果cv2.putText(frame, f'Persons: {person_count}', (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)cv2.putText(frame, f'Vehicles: {vehicle_count}', (10, 60), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)# 显示结果cv2.imshow('Pedestrian and Vehicle Detection and Counting', frame)if cv2.waitKey(1) & 0xFF == ord('q'):breakcap.release()
cv2.destroyAllWindows()
用户界面设计
为了提高系统的易用性,我们设计了一个用户友好的界面。使用PyQt5实现用户界面,提供图像或视频播放和检测计数结果显示。
界面代码
以下是一个简单的PyQt5界面代码示例:
import sys
from PyQt5.QtWidgets import QApplication, QWidget, QVBoxLayout, QLabel, QPushButton, QFileDialog
from PyQt5.QtGui import QPixmap, QImage
import cv2
from ultralytics import YOLOclass PedestrianVehicleDetectionUI(QWidget):def __init__(self):super().__init__()self.initUI()self.model = YOLO('best.pt')def initUI(self):self.setWindowTitle('Pedestrian and Vehicle Detection System')self.layout = QVBoxLayout()self.label = QLabel(self)self.layout.addWidget(self.label)self.button = QPushButton('Open Image or Video', self)self.button.clicked.connect(self.open_file)self.layout.addWidget(self.button)self.setLayout(self.layout)def open_file(self):options = QFileDialog.Options()file_path, _ = QFileDialog.getOpenFileName(self, "Open File", "", "All Files (*);;MP4 Files (*.mp4);;JPEG Files (*.jpg);;PNG Files (*.png)", options=options)if file_path:if file_path.endswith('.mp4'):self.detect_pedestrian_vehicle_video(file_path)else:self.detect_pedestrian_vehicle_image(file_path)def detect_pedestrian_vehicle_image(self, file_path):frame = cv2.imread(file_path)results = self.model(frame)person_count = 0vehicle_count = 0for result in results:bbox = result['bbox']label = result['label']confidence = result['confidence']if label == 'person':person_count += 1elif label == 'vehicle':vehicle_count += 1cv2.rectangle(frame, (bbox[0], bbox[1]), (bbox[2], bbox[3]), (0, 255, 0), 2)cv2.putText(frame, f'{label} {confidence:.2f}', (bbox[0], bbox[1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)cv2.putText(frame, f'Persons: {person_count}', (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)cv2.putText(frame, f'Vehicles: {vehicle_count}', (10, 60), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)height, width, channel = frame.shapebytesPerLine = 3 * widthqImg = QImage(frame.data, width, height, bytesPerLine, QImage.Format_RGB888).rgbSwapped()self.label.setPixmap(QPixmap.fromImage(qImg))def detect_pedestrian_vehicle_video(self, file_path):cap = cv2.VideoCapture(file_path)while cap.isOpened():ret, frame = cap.read()if not ret:breakresults = self.model(frame)person_count = 0vehicle_count = 0for result in results:bbox = result['bbox']label = result['label']confidence = result['confidence']if label == 'person':person_count += 1elif label == 'vehicle':vehicle_count += 1cv2.rectangle(frame, (bbox[0], bbox[1]), (bbox[2], bbox[3]), (0, 255, 0), 2)cv2.putText(frame, f'{label} {confidence:.2f}', (bbox[0], bbox[1] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.9, (0, 255, 0), 2)height, width, channel = frame.shapebytesPerLine = 3 * widthqImg = QImage(frame.data, width, height, bytesPerLine, QImage.Format_RGB888).rgbSwapped()self.label.setPixmap(QPixmap.fromImage(qImg))QApplication.processEvents()cap.release()if __name__ == '__main__':app = QApplication(sys.argv)ex = PedestrianVehicleDetectionUI()ex.show()sys.exit(app.exec_())
总结与声明
本文详细介绍了如何构建一个基于深度学习的行人车辆检测与计数系统。从环境搭建、数据收集与处理、模型训练、系统实现到用户界面设计,提供了完整的实现步骤和代码示例。通过本系统,可以实现对行人和车辆的实时检测与计数,为智能交通管理提供有力支持。
声明:本文只是简单的项目思路,如有部署的想法,想要(UI界面+YOLOv8/v7/v6/v5代码+训练数据集)的可以联系作者.