本次开源计划主要针对大学生无人机相关竞赛的视觉算法开发。
开源代码仓库链接:https://github.com/zzhmx/yolov5-tracking-xxxsort.git
先按照之前的博客配置好环境:
yolov5-tracking-xxxsort yolov5融合六种跟踪算法(一)–环境配置GPU版本
yolov5-tracking-xxxsort yolov5融合六种跟踪算法(一)–环境配置CPU版本
实际使用方法:
yolov5-tracking-xxxsort yolov5融合六种跟踪算法(二)–目标识别
1.实际操作
这是文件目录。
运行track.py程序即可推理视频、图片或者摄像头,具体用法在程序中有很多注释,主要是更改:
yolo-weights为你要使用的yolov5模型路径
reid-weights为追踪模型路径,可以在下面的网址下载其他模型,但是注意下载后的.pth模型要更改文件后缀为.pt
https://kaiyangzhou.github.io/deep-person-reid/MODEL_ZOO.html
2.如何修改参数
大部分主要参数其实在程序中都有注释,但是可能有一些同学还是看不太明白,我们要追踪一个目标,其实主要看目标检测模型和跟踪模型两个的性能,再一个就是看设置的参数如何约束模型输出的结果。模型性能就需要同学们通过自己调整训练策略和数据集质量来提升,当然我们这次实验只涉及目标检测模型的训练,其实在只有单一不变的目标场景下去训练一个模型很容易达到很好的效果,因为模型必然会过拟合,所以训练参数绝大部分都按照原始参数设置即可,主要是在运行程序时设置的参数会有一些影响。这些参数分布在track.py的parse_opt()中和路径为:trackers\boxmot\configs\deepocsort.yaml中这些参数都已经为大家注释好了,opt里面的help也是注释。大家可以自己修改看看对结果的影响。至于yolov5没有详细注释的参数大家可以在下面的网址学习
https://github.com/ultralytics/yolov5/wiki
参数解释如下图: