【OpenVINOSharp】 基于C#和OpenVINO2023.0部署Yolov8全系列模型

基于C#和OpenVINO2023.0部署Yolov8全系列模型

  • 1 项目简介
    • 1.1 OpenVINOTM
  • 2 OpenVinoSharp
    • 2.1 OpenVINOTM 2023.0安装配置
    • 2.2 C++ 动态链接库
    • 2.3 C#构建Core推理类
    • 2.4 NuGet安装OpenVinoSharp
  • 3 获取和转换Yolov8模型
    • 3.1 安装ultralytics
    • 3.2 导出yolov8模型
    • 3.3 安装OpenVINOTM Python版
  • 4 OpenVinoSharp部署Yolov8模型
    • 4.1 Yolov8-det预测结果
    • 4.2 Yolov8-cls预测结果
    • 4.3 Yolov8-seg预测结果
    • 4.4 Yolov8-pose预测结果

文章原文收录在英特尔物联网:基于 C# 和 OpenVINO™ 2023.0部署 YOLOv8 全系列模型 | 开发者实战

1 项目简介

1.1 OpenVINOTM

  英特尔发行版 OpenVINO™ 工具套件基于oneAPI 而开发,可以加快高性能计算机视觉和深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程, OpenVINO™ 可赋能开发者在现实世界中部署高性能应用程序和算法。
  在推理后端,得益于 OpenVINO™ 工具套件提供的“一次编写,任意部署”的特性,转换后的模型能够在不同的英特尔硬件平台上运行,而无需重新构建,有效简化了构建与迁移过程。可以说,如果开发者希望在英特尔平台上实现最佳的推理性能,并具备多平台适配和兼容性, OpenVINO™ 是不可或缺的部署工具首选。在这里插入图片描述

图 1 OpenVINO™
  《OpenVINO™5周年重头戏!2023.0版本持续升级AI部署和加速性能》(https://mp.weixin.qq.com/s/UWIA1EeX7M2-XhoJ5OfT7w)文章中介绍了OpenVINO™ 最新版本2023.0,引入了一系列旨在增强开发人员体验的新功能、改进和弃用,突出亮点是通过最大限度地减少离线转换、扩大模型支持和推进硬件优化来改善开发者之旅。 ## 1.2 Yolov8   由Ultralytics开发的Ultralytics YOLOv8是一种尖端的,最先进的(SOTA)模型,它建立在以前的YOLO版本成功的基础上,并引入了新功能和改进,以进一步提高性能和灵活性。YOLOv8 设计为快速、准确且易于使用,使其成为各种对象检测、图像分割和图像分类任务的绝佳选择。

在这里插入图片描述

图 2 Yolov8
  YOLOv8是YOLO系列目标检测算法的最新版本,相比于之前的版本,YOLOv8具有更快的推理速度、更高的精度、更加易于训练和调整、更广泛的硬件支持以及原生支持自定义数据集等优势。这些优势使得YOLOv8成为了目前业界最流行和成功的目标检测算法之一。

在这里插入图片描述

图 3 Yolov8-det模型
  Yolov8提供了Yolov8-det、Yolov8-seg、Yolov8-pose和Yolov8-cls预训练模型,每种模型官方还提供了n、s、m、l、s五种模型格式。 1.1.3 项目内容   该项目基于OpenVINOTM 2023.0模型推理库,在C#语言下,调用封装的OpenVINOTM动态链接库,实现Yolov8模型部署推理,实现了在C#平台调用OpenVINOTM部署Yolov8模型。 为了防止复现代码出现问题,列出以下代码开发环境,可以根据自己需求设置,注意OpenVINOTM一定是2022版本,其他依赖项可以根据自己的设置修改。 - 操作系统:Windows 11 - OpenVINOTM:2023.0 - OpenCV:4.5.5 - Visual Studio:2022 - C#框架:.NET 6.0 - OpenCvSharp:OpenCvSharp4   项目所有代码已经在开源代码仓开源,开源地址:
GitHub: https://github.com/guojin-yan/OpenVinoSharp.git
Gitee: https://gitee.com/guojin-yan/OpenVinoSharp.git

2 OpenVinoSharp

  C#是微软公司发布的一种由C和C++衍生出来的面向对象的编程语言、运行于.NET Framework和.NET Core(完全开源,跨平台)之上的高级程序设计语言。但OpenVINOTM未提供C#语言接口,因此无法直接在C#中使用,之前发布的文章《在C#中调用OpenVINO™ 模型》通过动态链接库特性,实现了在C#中调用OpenVINOTM部署深度学习模型,简称:OpenVinoSharp。目前根据日常使用以及OpenVINOTM升级,OpenVinoSharp也进行了相应的改进。
  目前OpenVinoSharp 2.1已经推出,支持OpenVINOTM 2023.0版本,图 4中给出了OpenVinoSharp实现原理。

在这里插入图片描述

图 4 OpenVinoSharp实现原理

2.1 OpenVINOTM 2023.0安装配置

  访问OpenVINOTM (openvino.ai)官网,进入到下载页面,按照图 5 进行选择,最后进行下载,下载后将文件解压到C:\Program Files (x86)\Intel文件夹下,并在Path环境变量下增加线面的环境变量:

C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\bin\intel64\Debug
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\bin\intel64\Release
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\3rdparty\tbb\bin

对于C++项目,增加以下配置:

Release模式下: 
包含目录:
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include\ie
库目录
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\lib\intel64\Release
附加依赖项
openvino.lib
Debug模式
包含目录
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\include\ie
库目录
C:\Program Files (x86)\Intel\openvino_2023.0.0.10926\runtime\lib\intel64\Debug
附加依赖项
openvinod.lib

在这里插入图片描述

图 5 下载选择

2.2 C++ 动态链接库

  C++可以封装dll动态链接库,由于C#是基于C/C++发展来的一门语言,因此C#可以通过动态链接库的形式调用C++代码。下面简单对动态链接库接口进行介绍,具体实现可以参考源码。
(1)推理引擎结构体
  Core是OpenVINOTM 工具套件里的推理核心类,该类下包含多个方法,可用于创建推理中所使用的其他类。在此处,需要在各个方法中传递模型信息,因此选择构建一个推理引擎结构体,用于存放各个变量。

// @brief 推理核心结构体
typedef struct openvino_core {ov::Core core; // core对象std::shared_ptr<ov::Model> model_ptr; // 读取模型指针ov::CompiledModel compiled_model; // 模型加载到设备对象ov::InferRequest infer_request; // 推理请求对象
} CoreStruct;

  其中Core是OpenVINO工具套件里的推理机核心;shared_ptr<ov::Model>是读取本地模型的方法,可支持读取Paddlepaddle飞桨模型、ONNX模型以及IR模型;CompiledModel主要是将读取的本地模型映射到计算内核,由所指定的设备编译模型;InferRequest是一个推理请求类,在推理中主要用于对推理过程的操作。CoreStruct结构体指针会贯穿下面的各个接口方法,实现模型信息的传递。
(2)初始化推理模型
  OpenVINO推理引擎结构体是联系各个方法的桥梁,后续所有操作都是在推理引擎结构体中的变量上操作的,为了实现数据在各个方法之间的传输,因此在创建推理引擎结构体时,采用的是创建结构体指针,并将创建的结构体地址作为函数返回值返回。推理初始化接口主要整合了原有推理的初始化Core对象、读取本地推理模型、载入模型到执行硬件和创建推理请求步骤,并将这些步骤所创建的变量放在推理引擎结构体中。
初始化推理模型接口方法为:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE core_init(const wchar_t* w_model_dir, const wchar_t* w_device, const wchar_t* w_cache_dir);

  其中w_model_dir为推理模型本地地址,w_device为模型运行设备名,w_cache_dir是缓存文件路径。
(3)配置输入数据形状
  OpenVINOTM 2022.1之后的版本支持了模型的动态输入并且支持动态设置模型输入形状,因此此处增加了模型形状设置接口:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE set_input_sharp(void* core_ptr, const wchar_t* w_node_name, size_t * input_shape, int input_size);

  其中core_ptrCoreStruct结构体指针,在读取模型后,后续所有操作都是基于该结构体实现的;w_node_name是待修改模型节点,input_shape是模型节点,input_size是形状长度。
(4)配置输入数据
  模型读取后就需要项模型中加载推理数据,常见的推理数据为图片数据,图片一般为一个三通道的二维数据,因此无法直接在C#与C++中传递,在该项目中主要是将图片数据转为二进制数据数据进行传递,下面接口实现了图片数据的加载:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE load_image_input_data(void* core_ptr, const wchar_t* w_node_name, uchar * image_data, size_t image_size, int type);

  其中w_node_name为莫模型输入节点名,image_data为图片数据的二进制数组,image_size为图片数据长度,type为数据处理方式,目前已经实现了常规变换、仿射变换、均方差归一化和常规归一化等方式。除了图片输入,一些模型还要求其他数据的输入,因此在该方法中,还增加了常规数据的加载方法:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE load_input_data(void* core_ptr, const wchar_t* w_node_name, float* input_data);

(5)模型推理
  将数据加载到模型后,就可以进行模型的推理,获取模型的推理结果,下面方法中封装了模型推理的方法,可以实现加载的数据进行推理。

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void* STDMETHODCALLTYPE core_infer(void* core_ptr);

(6)读取推理结果
  在进行完模型推理后,就可以获取模型的推理结果,由于不同模型要求的数据格式不同,此处封装了float和int数据的读取方式:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE read_infer_result_I32(void* core_ptr, const wchar_t* w_node_name, int* infer_result);
EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE read_infer_result_I64(void* core_ptr, const wchar_t* w_node_name, long long* infer_result);

  其中w_node_name为输出节点名称,infer_result为推理结果数组指针。
(7)删除推理核心结构体指针
推理完成后,我们需要将在内存中创建的推理核心结构地址删除,防止造成内存泄露,影响电脑性能,其接口该方法为:

EXTERN_C __MIDL_DECLSPEC_DLLEXPORT void STDMETHODCALLTYPE core_delet(void* core_ptr);

2.3 C#构建Core推理类

  上一步中我们将模型推理方法封装到了dll动态链接库中,生成了OpenVinoSharpExtern.dll文件,在C#中可以通过[DllImport()]方式通过函数名称与参数对应,将C++中的方法引入当C#中。

private const string dll_extern = " OpenVinoSharpExtern.dll";
[DllImport(dll_extern, CharSet = CharSet.Unicode, CallingConvention = CallingConvention.Cdecl)]
public extern static IntPtr core_init(string model_dir, string device, string w_cache_dir);

  上述代码通过core_init名称对应和参数返回指定应,将core_init()方法引入到C#中,同样的方式,可以将其他方法引入到C#中。
  上一步我们引入了封装的OpenVINO动态链接库,为了更方便的使用,将其封装到Core类中。在不同方法之间,主要通过推理核心结构体指针在各个方法之间传递,在C#是没有指针这个说法的,不过可以通过IntPtr结构体来接收这个指针,为了防止该指针被篡改,将其封装在类中作为私有成员使用。
  根据模型推理的步骤,构建模型推理类,表 1 中个除了构建的Core模型推理类的API接口,具体代码实现可以参考源码。
在这里插入图片描述

2.4 NuGet安装OpenVinoSharp

  为了方便使用OpenVinoSharp,该项目提供了NuGet包,使用者可以直接通过NuGet包管理器直接安装使用,程序包中包含OpenVINO2023.0版本的库文件,因此使用时无需再安装OpenVINO2023.0,直接安装NuGet包即可使用。
在这里插入图片描述

图 6 NuGet包安装

3 获取和转换Yolov8模型

3.1 安装ultralytics

  为了更好的管理python库,此处采用conda安装ultralytics环境,使用CMD窗口输入如以下指令,进行环境创建并安装ultralytics依赖项:

conda create -n ultralytics python==3.10
conda activate ultralytics
pip install ultralytics

在这里插入图片描述

图 7 ultralytics安装结果

3.2 导出yolov8模型

  Ultralytics支持直接导出预训练模型,并且可以直接导出onnx格式的模型,以Yolov8-det模型为例,直接导出yolov8s.onnx文件,在命令行中输入以下命令

yolo export model=yolov8s.pt format=onnx	

在这里插入图片描述

图 8 yolov8模型导出果

  通过上述命令可以获得yolov8s.onnx模型文件,同样的方式可以将Yolov8-seg、Yolov8-pose和Yolov8-cls的模型文件。

3.3 安装OpenVINOTM Python版

  OpenVINOTM提供了Python语言接口,因此是可以直接安装Python版本使用,且Python版本至此模型的转换和量化,此处采用conda安装OpenVINOTM环境,使用CMD窗口输入如以下指令,进行环境创建并安装OpenVINOTM依赖项:

conda create -n openvino2023_0 python=3.10
conda activate openvino2023_0
python -m pip install --upgrade pip
pip install openvino-dev[ONNX,pytorch,tensorflow2]==2023.0.0

在这里插入图片描述

图 9 OpenVINOTM安装
## 3.4 Yolov8模型量化   OpenVINOTM提供了模型优化的工具,yolov8模型精度默认为f32格式,该工具可以直接使用命令将模型转为f16,以Yolov8-det模型yolov8s.onnx文件为例,在命令行中输入: ``` mo -m yolov8s.onnx --compress_to_fp16 ``` ![在这里插入图片描述](https://img-blog.csdnimg.cn/0b19323d0d8f41fa89b9b314abdb8fb2.png#pic_center)
图 10 Yolov8模型量化
  通过上述命令可以获得f16精度的IR格式的模型:yolov8s.xml、yolov8s.bin。同样的方式可以将Yolov8-seg、Yolov8-pose和Yolov8-cls模型的精度转为f16。 ## 3.5 Benchmark_app 测试 Yolov8模型 ``benchmark_app`` 是 OpenVINO™️ 工具套件自带的 AI 模型推理计算性能测试工具,可以指定在不同的计算设备上,在同步或异步模式下,测试出不带前后处理的纯 AI 模型推理计算性能。以Yolov8-det模型为例,在命令行中输入以下命令: ``` benchmark_app -m yolov8s.xml -d CPU ``` ![在这里插入图片描述](https://img-blog.csdnimg.cn/bf12b9f1f1c74ca5a711375d2a1e9eaf.png#pic_center)
图 11 Yolov8-det模型推理计算性能

  上图为Yolov8-det模型在CPU:AMD R7 5800异步推理计算性能,最多可以实现21帧推理。

4 OpenVinoSharp部署Yolov8模型

  为了更好的演示Yolov8模型在C#中部署,此处使用WinForm搭建了一个简单的软件进行展示,软件搭建详细代码可以参考源码,下面代码演示了OpenVinoSharp部署Yolov8模型的核心代码:

// 配置图片数据
Mat image = new Mat(image_path); // 读取本地图片
int max_image_length = image.Cols > image.Rows ? image.Cols : image.Rows;
Mat max_image = Mat.Zeros(new OpenCvSharp.Size(max_image_length, max_image_length), MatType.CV_8UC3);
Rect roi = new Rect(0, 0, image.Cols, image.Rows);
image.CopyTo(new Mat(max_image, roi));
float[] factors = new float[2]; // 图片缩放比例
factors[0] = factors[1] = (float)(max_image_length / 640.0);
// 读取模型,初始化推理核心
Core core = new Core(model_path, "CPU");
// 将图片转为二进制数据
byte[] image_data = max_image.ImEncode(".bmp");
//存储byte的长度
ulong image_size = Convert.ToUInt64(image_data.Length);
// 加载推理图片数据
core.load_input_data("images", image_data, image_size, 1);
// 模型推理
core.infer();
// 读取推理结果
float[] result_array = core.read_infer_result<float>("output0", 8400 * 84);
// 清理内存占用
core.delet();
// 创建结果处理类
DetectionResult result_pro = new DetectionResult(classer_path, factors);
// 处理推理结果
result_image = result_pro.draw_result(result_pro.process_result(result_array), image.Clone());

4.1 Yolov8-det预测结果

  用Netron软件打开yolov8s.onnx,可以看到模型的输入和输出:
在这里插入图片描述

图 12 Yolov8-det模型节点

  模型的输入节点为images,数据类型为float32,输入为[1,3,640,640]大小的张量,代表输入为一个640×640大小的图片,图片加载模型前需要对数据进行归一化处理。
  模型的输出节点为output0,数据类型为float32,输出为[1,84,8400]的张量,其中“84”的定义为:cx,cy,h,w和80种类别的分数。8400是指 YOLOv8 的3个检测头在图像尺寸为640时,有640/8=80, 640/16=40, 640/32=20, 80x80+40x40+20x20=8400个输出单元格。
下图为Yolov8-det模型的推理结果:
在这里插入图片描述
在这里插入图片描述

图 13 Yolov8-det模型预测结果

4.2 Yolov8-cls预测结果

  用Netron软件打开yolov8s-cls.onnx,可以看到模型的输入和输出:
在这里插入图片描述

图 14 Yolov8-cls模型节点

  模型的输入节点为images,数据类型为float32,输入为[1,3,224,224]大小的张量,代表输入为一个224×224大小的图片,图片加载模型前需要对数据进行归一化处理。
  模型的输出节点为output0,数据类型为float32,输出为[1,1000]的张量,其中1000代表1000个分类情况的置信值,后续直接通过最大值索引和类别标签判断结果。
下图为Yolov8-cls模型的推理结果:
在这里插入图片描述
在这里插入图片描述

图 15 Yolov8-cls模型预测结果

4.3 Yolov8-seg预测结果

  用Netron软件打开yolov8s-seg.onnx,可以看到模型的输入和输出:
在这里插入图片描述

图 16 Yolov8-seg模型节点

  模型的输入节点与Yolov8一致。模型的输出节点有两个,输出节点1为output0,数据类型为float32,输出为[1,116,8400]的张量,其中 116 的前 84 个字段跟 YOLOv8目标检测模型输出定义完全一致,后 32 个字段用于计算mask。输出节点2为output1,数据类型为float32,输出为[1,32,160,160]的张量, output0 后 32 个字段与 output1 的数据做矩阵乘法后得到的结果,即为对应目标的mask。
  下图为Yolov8-seg模型的推理结果:

在这里插入图片描述在这里插入图片描述

图 17 Yolov8-seg模型预测结果

4.4 Yolov8-pose预测结果

  用Netron软件打开yolov8s-pose.onnx,可以看到模型的输入和输出:
在这里插入图片描述
图 18 Yolov8-pose模型节点

图 19 Yolov8-pose模型预测结果

  模型的输入节点与Yolov8一致。模型的输出节点为 output0,数据类型为 float32,输出为 [1,56,8400]的张量, 56指人体的预测框 (cx,cy,w,h,score)和人体17个关键点 (x,y,score)的预测结果, 5+17×3=56
  下图为Yolov8-pose模型的推理结果:

在这里插入图片描述
在这里插入图片描述

图 19 Yolov8-pose模型预测结果
# 5 总结   C#作为一门比较高级的编程语言,在Windows平台上有很好的支持,可以很容易实现桌面软件的开发,并且拥有自动的垃圾回收机制,可以实现自动内存管理,极大的见挂了编码过程,因此在当前工业领域有很广泛的应用。而OpenVINO™凭借着齐强的推理性能和硬件支持,在模型部署领域大放异彩。   因此实现在C#平台使用OpenVINO™部署深度学习模型,打破了OpenVINO™与C#之间的壁垒,会使得模型部署在工业领域应用变得更加容易。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/31029.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ssm学院党员管理系统源码和论文PPT

ssm学院党员管理系统源码和论文PPT002 开发工具&#xff1a;idea 数据库mysql5.7(mysql5.7最佳) 数据库链接工具&#xff1a;navcat,小海豚等 开发技术&#xff1a;java ssm tomcat8.5 选题意义、价值和目标&#xff1a; 随着鄂尔多斯应用技术学院招生规模的不断扩大&…

LeetCode209. 长度最小的子数组

题目&#xff1a;LeetCode209. 长度最小的子数组 描述&#xff1a; 给定一个含有 n 个正整数的数组和一个正整数 target 。 找出该数组中满足其和 ≥ target 的长度最小的 连续子数组 [numsl, numsl1, …, numsr-1, numsr] &#xff0c;并返回其长度。如果不存在符合条件的子…

改进DevSecOps框架的 5 大关键技术

Markets and Markets的一项研究显示&#xff0c;全球DevOps的市场规模从2017年的29亿美元增加到2023年的103.1亿美元&#xff0c;预测期的年复合增长率(CAGR)为24.7%。人们对DevOps越来越感兴趣&#xff0c;因为DevOps不仅能够压缩软件的交付周期&#xff0c;还能提高交付的速度…

geeemap学习总结(1)——Anaconda-VSCode-geemap环境安装与配置

配置conda geemap 环境 通过Anaconda配置geemap环境较为方便&#xff0c;首先需在系统中完成 Anaconda安装。创建名为geemap的环境conda create -n geemap切换到新建的环境conda activate geemap安装geemap依赖包conda install -c conda-forge geemap 安装mambaconda install …

ACM算法竞赛中在编辑器中使用输入输出样例-CPH

通用方法 我们可以在编辑器中创建三个文件&#xff0c;一个是main.cpp,一个是test.in,一个是test.out分别用来写代码&#xff0c;输入输入数据&#xff0c;显示输出数据 这种方法的好处是不需要插件&#xff0c;在任何编辑器中都可以实现&#xff0c;例如Devc,sublime,vscode…

【Pyhthon实战】Python对全校电费查询采集并可视化分析

前言 今天,我来说说怎么抓取宿舍电费的过程。我们学校是在完美校园交电费的,我们可以不用取抓包完美校园的数据接口,我们可以直接登录学校的一卡通网站,每个学校都有,大家可以自己找找,这里我为什么要抓包呢,因为学校提供的网站已经打不开了,这里就不介绍怎么抓包了。 …

直播电商赋能跨境业务,Live Market创造全民参与的生态圈

全球疫情的影响让跨境电商业务受到了巨大的冲击&#xff0c;但同时也为跨境电商业务带来了新的机遇和挑战。直播电商作为电子商务行业的新兴业务版块&#xff0c;成为了跨境电商业务的一个重要推动力量。在这个背景下&#xff0c;直播电商成为了跨境电商业务的一个主流业务版块…

php-cgi.exe - FastCGI 进程超过了配置的请求超时时限

解决方案一&#xff1a; 处理(php-cgi.exe - FastCGI 进程超过了配置的请求超时时限)的问题 内容转载&#xff1a; 处理(php-cgi.exe - FastCGI 进程超过了配置的请求超时时限)的问题_php技巧_脚本之家 【详细错误】&#xff1a; HTTP 错误 500.0 - Internal Server Error C:…

python爬虫之scrapy框架介绍

一、Scrapy框架简介 Scrapy 是一个开源的 Python 库和框架&#xff0c;用于从网站上提取数据。它为自从网站爬取数据而设计&#xff0c;也可以用于数据挖掘和信息处理。Scrapy 可以从互联网上自动爬取数据&#xff0c;并将其存储在本地或在 Internet 上进行处理。Scrapy 的目标…

vue3中用watch监听响应式数据的注意点

如果你在vue3中使用reactive()方法创建响应式数据&#xff0c;然后又用torefs()方法将响应式数据解构成单一的ref响应式数据。 此时&#xff0c;如果你想用watch监听解构出来单一的响应式数据&#xff0c;watch不起作用。 此时&#xff0c;你需要用watch监听之前的reactive()…

Python如何打开pkl的sample text?(上篇)

点击上方“Python爬虫与数据挖掘”&#xff0c;进行关注 回复“书籍”即可获赠Python从入门到进阶共10本电子书 今 日 鸡 汤 昨夜闲潭梦落花&#xff0c;可怜春半不还家。 大家好&#xff0c;我是皮皮。 一、前言 前几天在Python私教群【Emma】问了一个Python读取数据的问题&am…

mysql_docker主从复制_实战_binlog混合模式_天座著

步骤1&#xff1a;拉取镜像 docker pull mariadb:latest 步骤2.1&#xff1a;创建两个文件夹用于放置挂载mysql的my.cnf /tianzuomysqlconf/master /tianzuomysqlconf/slave mkdir /tianzuomysqlconf cd /tianzuomysqlconf mkdir master mkdir slave 步骤2.2&#xff1a;创…

ElasticSearch:全文检索及倒排索引原理

1.从全文检索说起 首先介绍一下结构化与非结构化数据&#xff1a; 结构化数据将数据具有的特征事先以结构化的形式定义好&#xff0c;数据有固定的格式或有限的长度。典型的结构化数据就是传统关系型数据库的表结构&#xff0c;数据特征直接体现在表结构的字段上&#xff0c;…

idea数据库快速上手-库操作与表结构和数据操作

引言 对数据库的操作无非就是执行SQL语句&#xff0c;要想熟练操作数据库&#xff0c;就要熟练运用SQL语句。 一&#xff0c;数据库操作 展示当前服务器内的数据库 -- 展示服务器内的数据库 show databases; show schemas; 执行结果&#xff1a; 创建数据库&#xff1a; --…

云技术-混沌工程

目录 混沌工程 故障注入 监控和观测 自动化和持续集成 混沌工程 混沌工程&#xff08;Chaos Engineering&#xff09;是一种实验性的系统可靠性工程方法&#xff0c;主动引入故障和异常来测试系统的弹性和容错能力。混沌工程的核心思想是通过模拟故障场景来验证系统在各种异…

springboot项目打包 以及打包碰到各种问题

PS:以上资料都来自于网络 1.IDEA 将springboot项目打包 IDEA如何打包springboot成jar包&#xff0c;并运行、停止、重启&#xff0c;本地依赖不能打包怎么办_真是6的不行的博客-CSDN博客 2.[WARNING] Error injecting: org.springframework.boot.maven.RepackageMojo 1.注释…

Python中搭建IP代理池的妙招

在Python的爬虫世界里&#xff0c;你是否也想搭建一个功能强大的IP代理池&#xff0c;让你的爬虫无忧无虑地畅游各大网站&#xff1f;今天&#xff0c;我就来教你使用Scrapy框架搭建IP代理池&#xff0c;让你的爬虫更加智能、高效&#xff01;跟着我一步一步来&#xff0c;轻松…

Pytorch基于VGG cosine similarity实现简单的以图搜图(图像检索)

代码如下&#xff1a; from PIL import Image from torchvision import transforms import os import torch import torchvision import torch.nn.functional as Fclass VGGSim(torch.nn.Module):def __init__(self):super(VGGSim, self).__init__()blocks []blocks.append(t…

使用乐观锁解决超卖问题

目录 什么是超卖&#xff1f; 乐观锁和悲观锁的定义 悲观锁&#xff1a; 乐观锁&#xff1a; 乐观锁的实现方式 1.版本号 2.CAS法 什么是超卖&#xff1f; 举个例子&#xff1a;订单系统中&#xff0c;用户在执行下单操作时&#xff0c;可能同一时间有无数个用户同时下单&…

linux静态库与动态库

1、动态库和静态库概念 Linux中的库分为动态库和静态库。 静态库&#xff08;.a&#xff09;&#xff1a;库文件以.a为后缀&#xff0c;程序在编译链接时把库的代码链接到可执行文件中&#xff08;将需要的库函数拷贝一份到代码中&#xff09;。程序运行时不需要再跳转到静态…