电脑端的测试环境搭建
如果不想再搭建环境和测试代码bug上浪费更多的时间可以直接获取本人的测试虚拟机,所有的测试代码、虚拟环境和板端测试工程以全部打包到了虚拟机,需要的可以通过网盘获取:
代码和虚拟机百度网盘链接:
链接:https://pan.baidu.com/s/15Np6Hn4_WuFDqcQ40aCe7A 提取码:j1ez
640是分辨率640*480,支持pytho和c++
320是分辨率320*240,支持python
github:GitHub - Linzaer/Ultra-Light-Fast-Generic-Face-Detector-1MB: 💎1MB lightweight face detection model (1MB轻量级人脸检测模型)
以下是以320分辨率测试为主
640分辨率测试参见----金书世界
搭建开发环境
#创建虚拟环境
conda create -n UltraFace python=3.6
conda activate UltraFace
pth模型测试
#测试路径
cd /home/kkx3/wyj/UltraFace/Ultra-Light-Fast-Generic-Face-Detector-1MB-master
#测试指令
python run_video_face_detect.py --test_device cpu
pth模型转onnx模型
#测试路径
cd /home/kkx3/wyj/UltraFace/Ultra-Light-Fast-Generic-Face-Detector-1MB-master
#模型转换指令
python convert_to_onnx.py
需要配置模型的输入输出路径
onnx模型转换bin模型
#激活虚拟环境
conda activate x3model
#测试路径
cd /home/kkx3/wyj/x3/TransModel/horizon_model_convert_sample/04_detection/08_Face_RFB/mapper
#模型转换
bash 01_check.sh
bash 02_preprocess.sh
bash 03_build.sh
需要配置文件
1、01_check.sh,修改模型路径
2、02_preprocess.sh修改测试图片路径
3、RFB_config.yaml修改配置文件
4、03_build.sh,修改模型路径
5、输出的模型路径
python版本板端测试
6、链接开发板,复制模型问文件到板端
#测试路径
cd /app/pydev_demo/14_FaceRFB_sample
#测试指令
./test_yolov5.py
测试图片和结果在当前的路径下
c++版本板端测试
以更新但是不支持240*320分辨率的仅支持640*480分辨率 参考:基于UltraFace的人脸检测在地平线旭日X3派上的部署和测试(Python版本和C++版本)---金书世界
测试:当前测试仅支持python版本,由于当前的模型输出是320*240的分辨率,C++版本不支持宽度是320的分辨率,后续调整分辨率后更新C++版本
地平线X3派上实现人脸检测