LabVIEW深度学习

目录

  • 一、配置环境
    • 1.1、显卡选择
    • 1.2、下载显卡驱动
    • 1.3、下载并安装Anaconda
    • 1.4、配置Anaconda软件包下载服务器
    • 1.5、配置虚拟环境tf_gpu
    • 1.6、安装vscode
    • 1.7、安装tensorflow
    • 1.8、下载安装Git
    • 1.9、安装TensorFlow Object Detection API框架
    • 1.10、安装依赖的python软件包
    • 1.11、配置环境变量
    • 1.12、安装COCO API
    • 1.13、编译proto文件
    • 1.14、测试框架安装
    • 1.15、安装LabelImg
  • 二、部署流程
    • 1.1、 选择预训练库
    • 1.2、标注图片
    • 1.3、修改pbtxt文件
    • 1.4、 Xml转CSV文件
    • 1.5、CSV转tfrecord文件
    • 1.6、修改config文件
    • 1.7、训练
    • 1.8、Tensorboard观察训练过程
    • 1.9、评估模型
    • 1.10、检查点文件转pb
    • 1.11、识别
  • 三、快捷训练

本文采用tensorflow开源的object detection api部署深度学习pb文件。
用LabVIEW2020自带的deep learning工具进行检测。
主要工作量在于object detection api的部署,主要参考《 深度学习图像识别技术:基于TensorFlow Object Detection API和OpenVINO™ 工具套件》
环境:

  • window10
  • anaconda3(64bit)
  • python 3.6
  • vscode(编辑平台,可选)
  • labview2020
    硬件:
    1660Ti 6G

一、配置环境

  • 硬件选型(显卡)
  • 驱动软件版本选择和安装(显卡驱动)
  • python版本选择和安装(用anaconda安装,本文python 3.6)
  • TensorFlow Obejct Detection API版本选择和安装
  • 依赖的全部软件和工具版本和安装
软件名称用途
NVIDIA显卡驱动TnesorFlow GPU版本依赖的显卡驱动软件
Anaconda管理Python软件包和环境的工具
PythonTensorFlow依赖的程序开发语言
TensorFlowGoogle开源的机器学习库
TensorFlow Object Detection API深度学习目标检测算法的软件框架

1.1、显卡选择

显卡选择建议参考链接:
https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/
本文使用1660Ti
入门级别参考:GeForce GTX 1050/1060/1070

1.2、下载显卡驱动

驱动下载链接:
https://www.nvidia.com/Download/index.aspx?lang=en-us

  • 根据所用显卡下载驱动,本文使用1660Ti,选择的驱动如下:
    在这里插入图片描述
  • Version保证大于410.x,安装可以选项可以全部默认在这里插入图片描述 - 确认安装完成在这里插入图片描述

1.3、下载并安装Anaconda

国内镜像下载链接:
https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/
本文使用2019.07(64bit)版本:
在这里插入图片描述

  • 注意勾选"Add Anaconda to my PATH environment variable"
    在这里插入图片描述

1.4、配置Anaconda软件包下载服务器

在默认路径C:\Users\Administrator里有.condar文件,修改为:

show_channel_urls:true
channel_alias:http://mirrors.tuna.tsinghua.edu.cn/anaconda
default_channels:- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/r- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/pro- https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/msys2
custom channels:conda-forge: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudmsys2:https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudbioconda: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudmenpo: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudpytorch: https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudsimpleitk:https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloudssl 
verify:true

1.5、配置虚拟环境tf_gpu

打开anaconda→选中"Environment"→点击"create"→Name修改为"tf_gpu",python选中"3.6"
在这里插入图片描述
打开Anaconda如果一直停留在初始化的界面,可以通过以下方法解决
① 在路径:C:\ProgramData\Anaconda3\Lib\site-packages\anaconda_navigator\api中,找到conda_api.py,搜索yaml.load,修改为yaml.safeload
在这里插入图片描述

② 重启电脑后,再打开就能正常打开了。
常用的一些conda指令可以参考以下网站:
https://docs.conda.io/projects/conda/en/latest/user-guide/cheatsheet.html
本文常用的有:

  1. conda install:安装当前python环境对应的工具包
    若安装的Python软件只依赖Python软件包,则遵循官方推荐,使用pip install安装,例如安装opencv-python;若安装的Python软件不仅依赖Python软件包,还依赖非Python软件包,则使用conda install,例如安装tensorflow-gpu,简单方便。
  2. conda activate:激活指定的虚拟环境,例如conda activate tf_gpu
  3. conda info –envs(cmd):可以查看当前conda的所有环境,带有星号的是当前激活的环境

1.6、安装vscode

vscode仅用修改对应的代码行,不作调试要求,相当于文本编辑软件,可以更换。
下载链接:
https://code.visualstudio.com/

1.7、安装tensorflow

1、win+R→输入"cmd"后,执行
2、命令行中输入后回车,等待安装完成

conda activate tf_gpu
conda install tensorflow-gpu=1.13.1

3、命令行中,输入"python"后回车,后再输入"import tensorflow as tf",显示如下信息,即安装完整
在这里插入图片描述

1.8、下载安装Git

下载Git,直接下载最新版本的Git就行,下载链接:
https://git-scm.com/

1.9、安装TensorFlow Object Detection API框架

TensorFlow Object Detection API是一个在TensorFlow基础上开发出来的用于计算机视觉领域实现在图像中检测并定位多个目标物体的软件框架
1、建立文件夹目录结构,本文源路径为"D:\deep_learning\src_code\tf_train"
在这里插入图片描述

  • addons文件夹:用于存放附加组件或其他软件工具
  • workspaces文件夹:用于存放每一个具体项目的文件
    2、在tf_train空白地方右键→选中"open Git Bash here"
    在这里插入图片描述
    3、在Git Bash中输入以下指令
git clone -b r1.13.0 https://github.com/tensorflow/models

如果报Git SSL错误的话,则需要先关闭SSL校验
输入

git config --global http.sslverify false

在这里插入图片描述
如果Git太慢,可以从云盘下载
https://pan.baidu.com/s/1klGCW0ckE2BQvY4cRscRYA#list/path=%2F
提取码: h9m3
4、下载完成后,路径变为:
在这里插入图片描述

1.10、安装依赖的python软件包

软件包名称用途
matplotlib绘制图表
pillow图像处理
lxml处理XML和HTML
contextlib2with语句上下文管理
cython让Python脚本支持C语言扩展的编译器
opencv-pythonOpenCV的python库
1、win+R→输入"cmd"后,执行
2、命令行中输入后回车,等待安装完成
conda activate tf_gpu

3、再输入

pip install matplotlib pillow lxml contextlib2 cython opencv-python

如果碰到个别的出错,可以单独执行。

1.11、配置环境变量

为了让Python可以找到TensorFlow Object Detection API依赖的软件模块,需要配置环境变量,本文添加以下三个路径:

D:\deep_learning\src_code\tf_train\models\research
D:\deep_learning\src_code\tf_train\models\research\slim
D:\deep_learning\src_code\tf_train\models\research\object_detection

1、打开"此电脑"→右键空白处,点击"属性"
在这里插入图片描述
2、点击高级系统设置
在这里插入图片描述
3、点击环境变量
在这里插入图片描述
4、添加对应的环境变量
在这里插入图片描述

1.12、安装COCO API

1、在addons文件夹中点击鼠标右键,选中Git Bash,在Git Bash中输入

git clone https://github.com/philferriere/cocoapi

下载完成后,文件目录变为
在这里插入图片描述
2、在命令行中激活tf_gpu环境→输入后执行,命令行进入PythonAPI

cd /d D:\deep_learning\src_code\tf_train\addons\cocoapi\PythonAPI

3、再执行

python setup.py install

1.13、编译proto文件

1、进入"D:\deep_learning\src_code\tf_train\models\research"路径
在这里插入图片描述
2、在文件路径中输入cmd,弹出命令行
在这里插入图片描述
3、激活tf_gpu环境后,输入以下命令执行后,完成proto文件的编译

for /f gi in('dir /b object detection\protos\*.proto')do protoc object detection\protos\&i--python out=.

1.14、测试框架安装

1、从https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/tf1_detection_zoo.md下载ssd_inception_v2_coco
在这里插入图片描述

2、下载完成后,解压到路径"D:\deep_learning\src_code\tf_train\models\research\object_detection"中
3、注释掉26行"import matplotlib; matplotlib.use(‘Agg’)"
在这里插入图片描述
4、在命令行中激活tf_gpu环境,然后执行object_detection_example_1.py

5、执行结果如下,说明检测环境配置完成。
在这里插入图片描述

1.15、安装LabelImg

激活tf_gpu,运行pip install labelimg

二、部署流程

1.1、 选择预训练库

预训练网址:
models/research/object_detection/g3doc/tf1_detection_zoo.md at master • tensorflow/models (github.com)

本文选用ssd_mobilenet_v2_coco。在这里插入图片描述

其中模型名称含义:
ssd_mobilenet_v2_coco:该模型使用了SSD(Single Shot Multibox Detector)目标检测算法,mobilenet特征提取网络,在COCO数据集上进行了训练。

  • 速度(Speed)
    是指该模型在NVIDIA GeForce GTX TITAN X显卡上处理600×600分辨率图像(包含预处理和后处理)的速度,这个数值可以让大家对模型运行的相对快慢有个感性的认识。例如,ssd_resnet_50_fpn_coco的运行速度就比ssd_mobilenet_v1_coco要慢。
  • 平均精度均值(mAP)
    是指该模型识别多类物体时,每类物体识别精度(AP)的平均值。mAP值越高,表明该模型识别精度越高。例如,ssd_resnet_50_fpn_coco的识别精度就比ssd_mobilenet_v1_coco要高。
  • 输出(outputs)
    有两种类型:边界框(boxes)和掩膜(Masks)
    下载完的模型,放到pre_trained_model文件夹里解压
    在这里插入图片描述

1.2、标注图片

1、准备好对应的图集。
2、用labelImg标注图片,并建立对应文件夹,包括images里面的eval,test,train,其中train里面包含图片和对应标注后以图片命名的xml文件,test是部分标注后的图片,eval是只有部分图片。
在这里插入图片描述

labelImg常用功能有:

  • w:启用矩形框
  • D:下一张
  • ctrl+s:保存
  • 打开在labelImg路径下的data文件夹predefined_classes.txt文件,将里面的预定义标签修改为对应的类别,本文是cat和dog。

1.3、修改pbtxt文件

修改"D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations"路径中的label_map.pbtxt文件。

item {id: 1name: "cat"
}
item {id: 2name: "dog"
}

1.4、 Xml转CSV文件

执行xml_to_csv.py

  • Train标注数据转csv:
Python xml_to_csv.py -i D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\images\train -o D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\train_labels.csv
  • Eval标注数据转csv:
Python xml_to_csv.py -i D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\images\eval-o D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\eval_labels.csv

1.5、CSV转tfrecord文件

  • 修改generate_tfrecord.py:
# 以猫狗为例,label0=cat,label1=dog,在pbtxt文件中也是
flags.DEFINE_string('label0','','Name of class[0] label')
flags.DEFINE_string('label1','','Name of class[1] label')
flags.DEFINE_string('img_path','','Name of class[1] label')
FLAGS = flags.FLAGS
# TO-DO replace this with label map
def class_text_to_int(row_label):if row_label == "cat":     # 需改动为自己的分类return 1elif row_label == "dog":return 2else:None
  • 执行csv转tfrecord(train)
Python generate_tfrecord.py --label0=cat --label1=dog --csv_input= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\train_labels.csv --output_path= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\train.tfrecord --img_path= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\images\train
  • 执行csv转tfrecord(eval)
Python generate_tfrecord.py --label0=cat --label1=dog --csv_input= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\eval_labels.csv --output_path= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\annotations\eval.tfrecord --img_path= D:\deep_learning\src_code\tf_train\workspaces\cats_dogs\images\eval

1.6、修改config文件

路径在models\research\object_detection\samples\configs里,把对应的ssd_inception_v2_coco_config文件复制到training文件夹下。
在这里插入图片描述

① 修改num_classes:2,猫狗只有两类:
在这里插入图片描述

② 修改batch_size:24,可根据显存和图像大小调整,越大越耗费,速度越快,太大会报错
在这里插入图片描述
③ 把fine_tune_checkpoint删除(可选)
④ Num_step:2000,根据loss值调整
⑤ Input_path配置为train.tfrecord路径
⑥ Label_map_path改为label_map.pbtxt路径
⑦ Input_path改为eval.tfrecord路径
⑧ Label_map_path改为label_map.pbtxt路径
在这里插入图片描述

1.7、训练

执行train.py脚本:

Python train.py --logtostderr --train_dir=training\ --pipeline_config_path=training\ssd_inception_v2_coco.config

1.8、Tensorboard观察训练过程

在cat_and_dog文件夹中输入cmd,输入

Tensorboard --logdir=training\
  • Training文件夹里面是包含所有检查点文件的文件夹
  • 如果网址打开不了,要把网址改为localhost

1.9、评估模型

Num_example要改为对应评估的图像个数
Max_evals验证循环次数
在这里插入图片描述

修改tf_train\models\research\object_detection\utils\object_detection_evaluation.py,unicode改为str
在这里插入图片描述
把tf_train\models\research\object_detection\legacy\eval.py文件拷到tf_train\workspaces\cats_dogs中,运行脚本

Python eval.py --logtostderr --checkpoint_dir=training --eval_dir=evaluation --pipeline_config_path=training\ssd_inception_v2_coco.config

1.10、检查点文件转pb

要注意ckpt后面的数值,需要在training文件夹里面存在一样名称的文件。
这个就是LabVIEW最终调用的PB文件。

Python export_inference_graph.py --input_type image_tensor --pipeline_config_path training\ssd_inception_v2_coco.config --trained_checkpoint_prefix training\model.ckpt-2000 --output_directory trained_frozen_models\cats_dogs_model

1.11、识别

① 修改模型路径:

# 第二步,导入模型ssd_inception_v2_coco_2018_01_28到内存
# ssd_inception_v2_coco_2018_01_28文件夹应与本程序放在models\research\object_detection文件夹下
# -----------------------------------------------------------
#MODEL_NAME = 'ssd_inception_v2_coco_2018_01_28'
MODEL_NAME='pre_trained_model/ssd_inception_v2_coco'
PATH_TO_FROZEN_GRAPH = MODEL_NAME + '/frozen_inference_graph.pb'
PATH_TO_LABELS = os.path.join('annotations', 'label_map.pbtxt')

② 修改图片路径:

# ## 从单张图片中检测对象子程序
# ## 图片名称:image1.jpg, image2.jpg,存放在
# ## models\research\object_detection\test_images文件夹下
#PATH_TO_IMAGES_DIR = 'test_images'
PATH_TO_IMAGES_DIR='images/eval'
TEST_IMAGE_PATHS = [os.path.join(PATH_TO_IMAGES_DIR, 'dog.{0:d}.jpg'.format(i)) for i in range(1,3)]

③ 输入命令行进行识别:python object_detection_example_2.py

三、快捷训练

以上路径生成和训练过程可以快捷完成
1、在激活tf_gpu环境后
2、快捷生成路径:

Python create_directories.py -n cats_dogs

3、快捷训练

python one_command_train.py --step 500 --batch_size 12

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/788383.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Python 简单使用 RabbitMQ

一、安装 pip install pika 二、推送消息到队列中 执行pythone方法 import pika import time# 用户名和密码 user_info pika.PlainCredentials(admin,admin)# 连接服务器上的rabbitMQ服务 connection pika.BlockingConnection(pika.ConnectionParameters(127.0.0.1, 5672,…

在开源的基础上构建 AI 需要一种全新的应用程序安全方法

人工智能已经从科幻小说中涌现出来,进入了我们的日常生活。 在开源软件(OSS)模型的支持下,人工智能革命正在加速。这些模型是专为开发 AI 而制作的复杂开源代码包,使组织能够高效、大规模地部署 AI 模型。 虽然大多数…

StreamingT2V文本生成视频多模态大模型,即将开源!

1、前言 Picsart人工智能研究所、德克萨斯大学和SHI实验室的研究人员联合推出了StreamingT2V视频模型。通过文本就能直接生成2分钟、1分钟等不同时间,动作一致、连贯、没有卡顿的高质量视频。 虽然StreamingT2V在视频质量、多元化等还无法与Sora媲美,但…

【C++第二阶段】文件操作

以下内容仅为当前认识,可能有不足之处,欢迎讨论! 文章目录 文件操作文件写入流程简单的demo写操作 文件读流程二进制写文件二进制读文件 文件操作 文件写入流程 写文件包括以下几个步骤 1.包含头文件 2.创建流对象 3.打开文件&#xff0…

大数据学习第十二天(hadoop概念)

1、服务器之间数据文件传递 1)服务器之间传递数据,依赖ssh协议 2)http协议是web网站之间的通讯协议,用户可已通过http网址访问到对应网站数据 3)ssh协议是服务器之间,或windos和服务器之间传递的数据的协议…

IP SSL的应用与安装

IP SSL,即互联网协议安全套接字层,它是一种为网络通信提供安全及数据完整性的安全协议。在网络传输过程中,IP SSL可以对数据进行加密,这样即便数据在传输途中被截取,没有相应的解密密钥也无法解读内容。这一过程如同将…

合并两个单链表

归纳编程学习的感悟, 记录奋斗路上的点滴, 希望能帮到一样刻苦的你! 如有不足欢迎指正! 共同学习交流! 🌎欢迎各位→点赞 👍 收藏⭐ 留言​📝 但行前路,不负韶华&#…

redis的键值基本操作

设置数据 首先设置键值对 删除age,会得到nil,表示这个键已经被删除掉了 判断age键还在不在 查找所有键 查找所有以me结尾的键 删除所有键 redis的键和值都是二进制存储的,所以默认不支持中文。 但是,我们重新登录客户端&#xff…

Unity自定义框架(1)-----------单例模式

前言: Unity作为一款强大的游戏开发引擎,其基础框架的设计对于项目的结构和性能有着重要的影响。其中,单例模式是一种常用的设计模式,用于确保一个类只有一个实例,并提供一个全局访问点。 什么是单例模式&#xff1f…

基于深度学习的机场航拍小目标检测系统(网页版+YOLOv8/v7/v6/v5代码+训练数据集)

摘要:在本博客中介绍了基于YOLOv8/v7/v6/v5的机场航拍小目标检测系统。该系统的核心技术是采用YOLOv8,并整合了YOLOv7、YOLOv6、YOLOv5算法,从而进行性能指标的综合对比。我们详细介绍了国内外在机场航拍小目标检测领域的研究现状、数据集处理…

分布式唯一ID 雪花算法

📝个人主页:五敷有你 🔥系列专栏:算法分析与设计 ⛺️稳中求进,晒太阳 算法具体介绍 雪花算法是 64 位 的二进制,一共包含了四部分: 1位是符号位,也就是最高位,…

大数据实验一,Hadoop安装及使用

目录 一.实验内容 二.实验目的 三.实验过程截图及说明 1、安装SSH,并配置SSH无密码登录 2、配置java环境 3.Hadoop的安装与配置 4、修改四个配置文件: 5、格式化HDFS的NameNode: 6、启动Hadoop 7、…

如何使用极狐GitLab 启用自动备份功能

本文作者:徐晓伟 GitLab 是一个全球知名的一体化 DevOps 平台,很多人都通过私有化部署 GitLab 来进行源代码托管。极狐GitLab 是 GitLab 在中国的发行版,专门为中国程序员服务。可以一键式部署极狐GitLab。 本文主要讲述了如何极狐GitLab 自…

探索Flutter混淆在提高应用安全性方面的作用

在移动应用开发中,保护应用代码安全至关重要。Flutter 提供了简单易用的混淆工具,帮助开发者在构建 release 版本应用时有效保护代码。本文将介绍如何在 Flutter 应用中使用混淆,并提供了相关的操作步骤和注意事项。 📝 摘要 本…

普通Java工程可执行JAR两种打包方式探讨

文章目录 一、需求概述二、代码结构三、运行结果四、打包设置1. 一体化可执行包2. 带外部依赖lib的可执行包 五、打包运行1. 源码放送2. 打包执行3. 打包结果 一、需求概述 普通Java工程 docker-show 实现了定时打印docker应用信息,现在需要将其打包成可执行Jar部署…

Nginx三大常用功能“反向代理,负载均衡,动静分离”

注意:以下案例在Windows系统计算机作为宿主机,Linux CentOS 作为虚拟机的环境中实现 一,Nginx配置实例-反向代理 1.反向代理 案例一 实现效果:使用nginx反向代理,访问 www.123.com 直接跳转到127.0.0.1:8080 准备工…

视频基础学习四——视频编码基础一(冗余信息)

文章目录 前言一、编码压缩的原理1.空间冗余帧内预测 2.时间冗余帧间预测运动估计运动补偿 3.编码冗余4.视觉冗余 二、压缩编码的流程1.编码器2.编解码流程 总结 前言 上一篇文章介绍了视频帧率、码率、与分辨率。也介绍了为什么需要对视频进行压缩,因为720P、rgb2…

计算机网络-HTTP相关知识-RSA和ECDHE及优化

HTTPS建立基本流程 客户端向服务器索要并验证服务器的公钥。通过密钥交换算法(如RSA或ECDHE)协商会话秘钥,这个过程被称为“握手”。双方采用会话秘钥进行加密通信。 RSA流程 RSA流程包括四次握手: 第一次握手:客户…

OpenCV项目实战-深度学习去阴影-图像去阴影

往期热门博客项目回顾: 计算机视觉项目大集合 改进的yolo目标检测-测距测速 路径规划算法 图像去雨去雾目标检测测距项目 交通标志识别项目 yolo系列-重磅yolov9界面-最新的yolo 姿态识别-3d姿态识别 深度学习小白学习路线 //正文开始! 图…

备战蓝桥杯---贪心刷题1

话不多说&#xff0c;直接看题&#xff1a; 本质是一个数学题&#xff1a; 我们令xi<0表示反方向传递&#xff0c;易得我们就是求每一个xi的绝对值之和min,我们令平均值为a爸。 易得约束条件&#xff1a; x1-x2a1-a,x2-x3a2-a..... 解得x1x1-0,x2x1-((n-1)*a-a2-...an)。…