【统计分析数学模型】判别分析(四):机器学习分类算法

在这里插入图片描述

【统计分析数学模型】判别分析(四):机器学习分类算法

  • 一、机器学习分类算法
    • 1. 交叉验证方法
    • 2. 案例数据集
    • 3. 数据标准化
  • 二、决策树模型
    • 1. 基本原理
    • 2. 计算步骤
    • 3. R语言实现
  • 三、K最邻近分类
    • 1. 基本原理
    • 2. K值的选择
    • 3. R语言实现
  • 四、支持向量机
    • 1.基本原理
    • 2. R语言实现
  • 五、神经网络分类
    • 1. 基本原理
    • 2. BP神经网络
    • 3. R语言实现
  • 六、随机森林分类
    • 1. 基本原理
    • 2. R语言实现
  • 七、总结


一、机器学习分类算法

机器学习中的分类算法也常常用来解决判别分析问题。常见的分类算法包括决策树、K最邻近、支持向量机、神经网络、随机森林等。

1. 交叉验证方法

在用这些算法建立分类模型时,如果用全部数据建立模型并用回代法进行模型的内部验证,可能会出现过度拟合现象。因此,在建模时需要进行交叉验证以避免过度拟合问题。常用的交叉验证方法有以下3种:

  1. 保留交叉验证(hand-out cross validation)
    将样本集随机分成训练集(training set)和验证集(test set),比例通常是7∶3或8∶2。使用模型在训练集上学习得到假设,然后使用验证集对假设进行验证,看模型预测的准确性,选择误差小的模型。
  2. k折交叉验证(k-fold cross validation)
    把样本集分成k份,分别使用其中的k−1份作为训练集,剩下的1份作为交叉验证集,最后通过所有模型的平均误差来评估模型参数。
  3. 留一法验证(leave-one-out validation)
    实质上是n折交叉验证,n是样本集的大小,就是只留下一个样本来验证模型的准确性。

2. 案例数据集

以MASS包中的数据集Pima.tr和Pima.te为例说明常见机器学习分类算法的实现方法。

它们是居住在美国某地区皮马印第安人后裔中部分女性的糖尿病调查数据。两个数据框中的变量都是一样的,其含义如下。

  • npreg:怀孕次数
  • glu:血糖浓度
  • bp:舒张压(单位:mmHg)
  • skin:三头肌皮褶厚度(单位:mm)
  • bmi:体质指数
  • ped:糖尿病家族史因素
  • age:年龄
  • type:是否患有糖尿病(Yes/No)

其中,结局变量为type,其余均为数值型的预测变量。

3. 数据标准化

首先,加载这两个数据集并分别将它们作为训练集和测试集:

library(MASS)
data(Pima.tr)
data(Pima.te)

由于预测变量的测量单位之间有较大差异,下面用函数scale()将它们标准化,都转换为均值为0、标准差为1的变量,并将训练集命名为data.train,测试集命名为data.test:

data.train<-Pima.tr
data.train[,-8]<-scale(data.train[,-8])
data.test<-Pima.te
data.test[,-8]<-scale(data.test[,-8])

二、决策树模型

1. 基本原理

决策树(decision tree)模型 是一种简单易用的非参数分类方法。它不需要对数据的分布有任何的先验假设,计算速度快,结果也容易解释。

分类回归树方法(CART) 是决策树模型中的一种经典算法,CART分为分类树(classification tree)和回归树(regression tree)两种。

分类树用于因变量为分类数据的情况,树的末端为因变量的类别;回归树用于因变量为连续型变量的情况,树的末端给出相应类别中的因变量描述或预测。

2. 计算步骤

  • 首先对所有自变量和所有分隔点进行评估,最佳的选择是使分隔后组内的数据“纯度”更高,即组内目标变量的变异最小;
  • 再对分类树模型进行修剪或称为剪枝:如果不加任何限制,过度复杂的分类树模型很容易产生“过度拟合”的问题。

通常使用CP参数(complexity parameter)控制树的复杂度。CP参数取值越小,模型越复杂,越偏向于过度拟合。

通常的做法是先建立一个枝节较多的分类树模型,再使用交叉验证的方法来估计不同“剪枝”条件下各个模型的误差,从而选择误差最小的分类树模型。

3. R语言实现

library(rpart)
set.seed(123)
pima.rpart<-rpart(type~.,data=data.train,control=rpart.control(cp=0))
pima.rpart

决策树模型的输出结果看起来像是以树状形式排列的一系列if-else语句。每行括号前面的数字代表节点,行缩进表示分支,*表示叶节点,loss表示误差数量。各节点后括号里的数值代表了各类别的比例:

> pima.rpart
n= 200 node), split, n, loss, yval, (yprob)* denotes terminal node1) root 200 68 No (0.66000000 0.34000000)  2) glu< -0.01484184 109 15 No (0.86238532 0.13761468)  4) age< -0.3289163 74  4 No (0.94594595 0.05405405) *5) age>=-0.3289163 35 11 No (0.68571429 0.31428571)  10) glu< -1.072718 9  0 No (1.00000000 0.00000000) *11) glu>=-1.072718 26 11 No (0.57692308 0.42307692)  22) bp>=-0.2839819 19  6 No (0.68421053 0.31578947) *23) bp< -0.2839819 7  2 Yes (0.28571429 0.71428571) *3) glu>=-0.01484184 91 38 Yes (0.41758242 0.58241758)  6) ped< -0.4923593 35 12 No (0.65714286 0.34285714)  12) glu< 1.32724 27  6 No (0.77777778 0.22222222) *13) glu>=1.32724 8  2 Yes (0.25000000 0.75000000) *7) ped>=-0.4923593 56 15 Yes (0.26785714 0.73214286)  14) bmi< -0.597043 11  3 No (0.72727273 0.27272727) *15) bmi>=-0.597043 45  7 Yes (0.15555556 0.84444444) *

用plot()函数绘制分类树:

plot(pima.rpart,uniform=TRUE,margin=0.1)
text(pima.rpart,use.n=TRUE)

在这里插入图片描述
寻找最小xerror值对应的CP值,并由此CP值决定树的规模,再用函数prune()对树模型进行剪枝:

cptable<-as.data.frame(pima.rpart$cptable)
cpvalue<-cptable[which.min(cptable$xerror),"CP"]
cpvalue#最小的CP值
prune.model<-prune(pima.rpart,cpvalue)

画出剪枝后的模型对象prune.model的分类树模型:

plot(prune.model,uniform=TRUE,margin=0.1)
text(prune.model,use.n=TRUE)

在这里插入图片描述
分类树模型对于建模数据的预测结果:

probs.rp<-predict(prune.model)
head(probs.rp)pred.train<-predict(prune.model,type="class")
pred.train[1:6]#查看前6个分类结果

结果如下:

> head(probs.rp)No       Yes
[1,] 0.8623853 0.1376147
[2,] 0.2500000 0.7500000
[3,] 0.8623853 0.1376147
[4,] 0.7777778 0.2222222
[5,] 0.8623853 0.1376147
[6,] 0.8623853 0.1376147> pred.train[1:6]
[1] No  Yes No  No  No  No 
Levels: No Yes

建立混淆矩阵查看判别效果:

cm.train<-table(pred.train,data.train$type)
cm.trainsum(diag(cm.train))/sum(cm.train)#计算回判正确率

结果如下:

> cm.trainpred.train  No YesNo  123  24Yes   9  44> sum(diag(cm.train))/sum(cm.train)#计算回判正确率
[1] 0.835

一共有33名对象被错判,回判正确率为83.5%,这个预测是针对训练集进行的。

下面用测试数据进行外部验证:

pred.test<-predict(prune.model,newdata=data.test[,-8],type="class")
cm.test<-table(pred.test,data.test$type)
cm.testsum(diag(cm.test))/sum(cm.test)#计算预测正确率

结果如下:

> cm.testpred.test  No YesNo  193  49Yes  30  60> sum(diag(cm.test))/sum(cm.test)#计算预测正确率
[1] 0.7620482

预测正确率为76.2%。一般来说,外部验证的正确率会低于内部验证的正确率(回判正确率)。

三、K最邻近分类

1. 基本原理

K最邻近(K-nearest neighbor, KNN)算法是一个理论上比较成熟的算法,也是最简单的分类算法之一。

其基本思路是,如果一个样品在特征空间中与K个最邻近(或最相似)样品中的大多数属于某一个类别,则将该样品判为这个类别。

2. K值的选择

KNN算法在进行判别时,主要依靠样品周围若干邻近样品的信息,选择不同的K值可能得到不同的分类结果。

如果选择较小的K值,就相当于用较小邻域中的训练样品进行预测,“学习”的近似误差会减小,只有与待判样品较近的训练样品才会对预测结果起作用。但其缺点是“学习”的估计误差会增大,预测结果对邻近的样品点非常敏感。换句话说,K值的减小意味着整体模型变得复杂,容易发生过度拟合现象。

如果选择较大的K值,就相当于用较大邻域中的训练样品进行预测。其优点是可以减少“学习”的估计误差,但缺点是“学习”的近似误差会增大。这时与待判样品较远的(不相似的)训练样品也会对预测起作用,使预测发生错误。K值增大就意味着整体模型变得简单。

K值的选择反映了对近似误差与估计误差的权衡,通常可以尝试选择不同的K比较模型的预测效果,从而选择预测效果最优的K。

3. R语言实现

class包里的函数knn()可以实现基本的KNN算法,在函数中需要输入训练集(train)、测试集(test)、训练集里样品的类别标签(cl)和邻近点的个数(K)等。

library(caret)
set.seed(123)#设定随机数种子
ctrl<-trainControl(method="repeatedcv",number=10,repeats=3)
tunedf<-data.frame(k=3:10)
knnmodel<-train(type~.,data=data.train,method="knn",trControl=ctrl,tuneGrid=tunedf)
plot(knnmodel)

对每次抽样得到的数据都进行10重交叉验证,即得到30次验证的结果。
在这里插入图片描述
从图中可以看出,对于该数据集,当K取5时模型的预测效果最佳。

计算回判正确率和预测正确率:

knn.pred.train<-predict.train(knnmodel)
confusionMatrix(knn.pred.train,data.train$type)knn.pred.test<-predict(knnmodel,newdata=data.test[,-8])
confusionMatrix(knn.pred.test,data.test$type)

结果如下:

> confusionMatrix(knn.pred.train,data.train$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  124  26Yes   8  42Accuracy : 0.83            95% CI : (0.7706, 0.8793)No Information Rate : 0.66            P-Value [Acc > NIR] : 6.299e-08       Kappa : 0.5952          Mcnemar's Test P-Value : 0.003551        Sensitivity : 0.9394          Specificity : 0.6176          Pos Pred Value : 0.8267          Neg Pred Value : 0.8400          Prevalence : 0.6600          Detection Rate : 0.6200          Detection Prevalence : 0.7500          Balanced Accuracy : 0.7785          'Positive' Class : No              > confusionMatrix(knn.pred.test,data.test$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  196  54Yes  27  55Accuracy : 0.756           95% CI : (0.7062, 0.8013)No Information Rate : 0.6717          P-Value [Acc > NIR] : 0.0005027       Kappa : 0.4094          Mcnemar's Test P-Value : 0.0038661       Sensitivity : 0.8789          Specificity : 0.5046          Pos Pred Value : 0.7840          Neg Pred Value : 0.6707          Prevalence : 0.6717          Detection Rate : 0.5904          Detection Prevalence : 0.7530          Balanced Accuracy : 0.6918          'Positive' Class : No  

回判正确率为83.0%,预测正确率为75.6%。

这表明对于当前的数据集,KNN算法的分类效果比rpart算法稍差。

四、支持向量机

1.基本原理

支持向量机(support vector machine, SVM)是一种有监督学习的分类和回归分析方法。它的基本思想是对于给定的训练数据,在数据的特征空间中找到一个超平面(即分隔超平面),将数据划分为两个类别,并且使这个超平面与数据最近的样本点(支持向量)距离最大,从而得到一个最优的决策边界。SVM在解决高维数据分类问题上具有很高的效率,并且能够解决非线性分类问题。

笔者在2019年记录过SVM相关理论的学习,可以帮助更加详细理解理解SVM的4个关键概念:分隔超平面、最大边缘超平面、软边缘、核函数。

SVM学习笔记(一)——介绍与原理推导

SVM学习笔记(二)——软间隔(soft-margin)

SVM学习笔记(三)——核函数

SVM学习笔记(四)——SVM模型实例

SVM学习笔记(五)——在Python下使用不同核函数进行训练

2. R语言实现

现在仍以前面的例子,使用多重交叉验证的方法来建立模型:

set.seed(123)
ctrl<-trainControl(method="repeatedcv",number=10,repeats=3)
tunedf<-data.frame(C=seq(0.1,1,length=10))
svmmodel<-train(type~.,data=data.train,method="svmRadialCost",trControl=ctrl,tuneGrid=tunedf)
plot(svmmodel)

在这里插入图片描述
计算回判正确率和预测正确率:

svm.pred.train<-predict.train(svmmodel)
confusionMatrix(svm.pred.train,data.train$type)svm.pred.test<-predict(svmmodel,newdata=data.test[,-8])
confusionMatrix(svm.pred.test,data.test$type)

结果如下:

> confusionMatrix(svm.pred.train,data.train$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  121  26Yes  11  42Accuracy : 0.815           95% CI : (0.7541, 0.8663)No Information Rate : 0.66            P-Value [Acc > NIR] : 8.89e-07        Kappa : 0.5645          Mcnemar's Test P-Value : 0.02136         Sensitivity : 0.9167          Specificity : 0.6176          Pos Pred Value : 0.8231          Neg Pred Value : 0.7925          Prevalence : 0.6600          Detection Rate : 0.6050          Detection Prevalence : 0.7350          Balanced Accuracy : 0.7672          'Positive' Class : No              > confusionMatrix(svm.pred.test,data.test$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  200  47Yes  23  62Accuracy : 0.7892          95% CI : (0.7413, 0.8318)No Information Rate : 0.6717          P-Value [Acc > NIR] : 1.53e-06        Kappa : 0.4934          Mcnemar's Test P-Value : 0.005977        Sensitivity : 0.8969          Specificity : 0.5688          Pos Pred Value : 0.8097          Neg Pred Value : 0.7294          Prevalence : 0.6717          Detection Rate : 0.6024          Detection Prevalence : 0.7440          Balanced Accuracy : 0.7328          'Positive' Class : No 

结果表明,回判正确率为81.5%,预测正确率约为78.9%。

五、神经网络分类

1. 基本原理

神经网络是一种运算模型,它由大量的节点(或称神经元)和它们之间的相互连接构成,每个节点代表一种特定的输出函数,称为激励函数(activation function)。

每两个节点间的连接都代表一个对于通过该连接信号的加权值,称为权重。网络的输出则依网络的连接方式、权重值和激励函数的不同而不同。

2. BP神经网络

BP神经网络是一种按照误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。

P神经网络模型的结构包括输入层(input layer)、隐层(hide layer)和输出层(output layer)。nnet包中的函数nnet()可以实现BP神经网络算法,其中的重要参数如下。

参数含义
size隐层神经元的个数,数字越大模型越复杂。
decay学习速率,是为了避免过度拟合,这个值一般在0~0.1,默认为0。
linout隐层到输出层的函数形式,若是回归问题则设为TRUE,表示线性输出,若是分类问题则设为FALSE,表示非线性输出。

3. R语言实现

set.seed(123)
ctrl<-trainControl(method="repeatedcv",number=10,repeats=3)
tunedf<-expand.grid(decay=0.1,size=3:10)
nnetmodel<-train(type~.,data=data.train,method="nnet",trControl=ctrl,tuneGrid=tunedf,trace=FALSE)
nnetmodel
plot(nnetmodel)

结果显示,BP神经网络模型的参数在隐层神经元为9个时,准确率最高:

> nnetmodel
Neural Network 200 samples7 predictor2 classes: 'No', 'Yes' No pre-processing
Resampling: Cross-Validated (10 fold, repeated 3 times) 
Summary of sample sizes: 179, 180, 180, 181, 180, 180, ... 
Resampling results across tuning parameters:size  Accuracy   Kappa    3    0.7091353  0.33693364    0.7057477  0.32459785    0.7154845  0.33728266    0.7073893  0.32935597    0.7184670  0.34647728    0.6969591  0.31226139    0.7187469  0.354673610    0.7075647  0.3238119Tuning parameter 'decay' was held constant at a value of 0.1
Accuracy was used to select the optimal model using the largest value.
The final values used for the model were size = 9 and decay = 0.1.

在这里插入图片描述

计算回判正确率和预测正确率:

nnet.pred.train<-predict(nnetmodel)
confusionMatrix(nnet.pred.train,data.train$type)nnet.pred.test<-predict(nnetmodel,newdata=data.test[,-8])
confusionMatrix(nnet.pred.test,data.test$type)

结果如下:

> confusionMatrix(nnet.pred.train,data.train$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  126  12Yes   6  56Accuracy : 0.91            95% CI : (0.8615, 0.9458)No Information Rate : 0.66            P-Value [Acc > NIR] : <2e-16          Kappa : 0.7951          Mcnemar's Test P-Value : 0.2386          Sensitivity : 0.9545          Specificity : 0.8235          Pos Pred Value : 0.9130          Neg Pred Value : 0.9032          Prevalence : 0.6600          Detection Rate : 0.6300          Detection Prevalence : 0.6900          Balanced Accuracy : 0.8890          'Positive' Class : No              > confusionMatrix(nnet.pred.test,data.test$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  190  41Yes  33  68Accuracy : 0.7771          95% CI : (0.7285, 0.8207)No Information Rate : 0.6717          P-Value [Acc > NIR] : 1.585e-05       Kappa : 0.485           Mcnemar's Test P-Value : 0.4158          Sensitivity : 0.8520          Specificity : 0.6239          Pos Pred Value : 0.8225          Neg Pred Value : 0.6733          Prevalence : 0.6717          Detection Rate : 0.5723          Detection Prevalence : 0.6958          Balanced Accuracy : 0.7379          'Positive' Class : No 

回判正确率为91.0%,预测正确率约为77.7%。

六、随机森林分类

1. 基本原理

集成学习(ensemble learning) 试图通过连续调用单个学习算法,获得不同的模型,然后根据某种规则把这些模型进行组合来解决某一问题,这样做的目的是提高学习系统的泛化能力。组合多个模型预测结果主要采用加权平均或投票的方法。

随机森林(random forest) 是一种常用的集成学习算法,它是将许多棵决策树整合成森林并用来预测最终结果。决策树算法对样本的微小变化会很敏感。在使用分类树进行判别分析时,如果对单个分类树的判别结果不满意,可以考虑随机抽取样本来生成多个分类树,形成一批森林,然后综合森林中的所有树形成最终的单一树的预测结果。这样就能避免单棵树对样本变化敏感的问题,以提高模型的预测能力。

2. R语言实现

set.seed(123)
ctrl<-trainControl(method="repeatedcv",number=10,repeats=3)
rfmodel<-train(type~.,data=data.train,method="rf",trControl=ctrl,tuneLength=5)
varImp(rfmodel)

varImp()函数用来返回各变量的重要程度:

> varImp(rfmodel)
rf variable importanceOverall
glu   100.000
age    46.892
ped    34.886
bmi    29.866
skin    7.340
npreg   6.708
bp      0.000

用图示法显示变量对于模型的重要程度:

library(randomForest)
varImpPlot(rfmodel$finalModel)

在这里插入图片描述
计算回判正确率和预测正确率:

rf.pred.train<-predict.train(rfmodel)
confusionMatrix(rf.pred.train,data.train$type)rf.pred.test<-predict.train(rfmodel,newdata=data.test[,-8])
confusionMatrix(rf.pred.test,data.test$type)

结果如下:

> confusionMatrix(rf.pred.train,data.train$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  132   0Yes   0  68Accuracy : 1          95% CI : (0.9817, 1)No Information Rate : 0.66       P-Value [Acc > NIR] : < 2.2e-16  Kappa : 1          Mcnemar's Test P-Value : NA         Sensitivity : 1.00       Specificity : 1.00       Pos Pred Value : 1.00       Neg Pred Value : 1.00       Prevalence : 0.66       Detection Rate : 0.66       Detection Prevalence : 0.66       Balanced Accuracy : 1.00       'Positive' Class : No         > confusionMatrix(rf.pred.test,data.test$type)
Confusion Matrix and StatisticsReference
Prediction  No YesNo  191  44Yes  32  65Accuracy : 0.7711          95% CI : (0.7221, 0.8152)No Information Rate : 0.6717          P-Value [Acc > NIR] : 4.613e-05       Kappa : 0.4659          Mcnemar's Test P-Value : 0.207           Sensitivity : 0.8565          Specificity : 0.5963          Pos Pred Value : 0.8128          Neg Pred Value : 0.6701          Prevalence : 0.6717          Detection Rate : 0.5753          Detection Prevalence : 0.7078          Balanced Accuracy : 0.7264          'Positive' Class : No              

回判正确率达到了100%,预测正确率约为77.1%。


七、总结

在选择分类算法时,需要考虑模型的泛化能力、算法复杂度以及对结果的可解释性,且应不断积累新的数据资料,对算法进行修正。

对于以上各类机器学习分类算法的基本原理和推导,有机会再单独做详细的介绍。(留个坑

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/699522.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

5分钟JavaScript快速入门

目录 一.JavaScript基础语法 二.JavaScript的引入方式 三.JavaScript中的数组 四.BOM对象集合 五.DOM对象集合 六.事件监听 使用addEventListener()方法添加事件监听器 使用onX属性直接指定事件处理函数 使用removeEventListener()方法移除事件监听器 一.JavaScript基础…

投屏软件Airserver优惠码来了,使用能减10元(有图有真相)

Airserver是一款非常实用的手机投屏到电脑软件。AirServer for Mac是一款能够通过本地网络将音频、照片、视频以及支持AIrPlay功能的第三方App&#xff0c;从 iOS 设备无线传送到 Mac 电脑的屏幕上&#xff0c;把Mac变成一个AirPlay终端的实用工具。 Airserver中文官网地址&…

【算法与数据结构】回溯算法、贪心算法、动态规划、图论(笔记三)

文章目录 七、回溯算法八、贪心算法九、动态规划9.1 背包问题9.2 01背包9.3 完全背包9.4 多重背包 十、图论10.1 深度优先搜索10.2 广度优先搜索10.3 并查集 最近博主学习了算法与数据结构的一些视频&#xff0c;在这个文章做一些笔记和心得&#xff0c;本篇文章就写了一些基础…

【C++】类和对象---友元,内部类,匿名对象详解

目录 友元 友元函数 友元类 内部类 匿名对象 ⭐友元 友元提供了一种突破封装的方式&#xff0c;有时提供了便利。但是友元会增加耦合度&#xff0c;破坏了封装&#xff0c;所以 友元不宜多用。 友元分为&#xff1a;友元函数和友元类。 ⚡友元函数 先看一个问题&#x…

使用 yarn 的时候,遇到 Error [ERR_REQUIRE_ESM]: require() of ES Module 怎么解决?

晚上回到家&#xff0c;我打开自己的项目&#xff0c;执行&#xff1a; cd HexoPress git pull --rebase yarn install yarn dev拉取在公司 push 的代码&#xff0c;然后更新依赖&#xff0c;最后开始今晚的开发时候&#xff0c;意外发生了&#xff0c;竟然报错了&#xff0c;…

Python流程控制有知道的吗?

流程控制是编程的核心概念之一&#xff0c;Python也不例外。在Python中&#xff0c;程序的流程控制结构主要包括顺序结构、选择结构和循环结构。这些结构让程序员能够更好地组织代码&#xff0c;使其按照特定的逻辑执行。 1.顺序结构 顺序结构是Python中最简单的流程控制结构&…

Android相机调用-libusbCamera【外接摄像头】【USB摄像头】 【多摄像头预览】

有的自定义系统&#xff0c;对于自己外接的USB摄像头&#xff0c;android原生的camera和camera2都无法打开&#xff0c;CameraX也用不了。这时候就要用libusbCamera&#xff0c;这个库可以打开摄像头&#xff0c;还可以多摄像头同时预览。本文主要是同时打开3个USB摄像头的项目…

Spring Boot应用集成Actuator组件以后怎么自定义端点暴露信息

一、 前言 在平时业务开发中&#xff0c;我们往往会在spring Boot项目中集成Actuator组件进行系统监控&#xff0c;虽然Actuator组件暴露的端点信息已经足够丰富了&#xff0c;但是特殊场景下&#xff0c;我们也需要自己暴露端点信息&#xff0c;此时应该怎么操作呢&#xff1…

爬虫知识--03

数据存mysql import requests from bs4 import BeautifulSoup import pymysql# 链接数据库pymysql conn pymysql.connect(userroot,password"JIAJIA",host127.0.0.1,databasecnblogs,port3306, ) cursor conn.cursor() cursor conn.cursor()# 爬数据 res request…

如何解决Nginx启动出现闪退问题?

哈喽&#xff0c;大家好&#xff0c;我是小浪。那么大家首次在启动nginx的时候&#xff0c;绝大部分同学会出现以下情况&#xff0c;就是我们双击nginx.exe文件之后&#xff0c;屏幕闪退一下就没了&#xff0c;然后我们访问localhost:8080提示404. 那么出现这种情况其实是我们…

NestJS入门7:增加异常过滤器

前文参考&#xff1a; NestJS入门1 NestJS入门2&#xff1a;创建模块 NestJS入门3&#xff1a;不同请求方式前后端写法 NestJS入门4&#xff1a;MySQL typeorm 增删改查 NestJS入门5&#xff1a;加入Swagger NestJS入门6&#xff1a;日志中间件 本文代码基于上一篇文章《…

深度学习基础(二)卷积神经网络(CNN)

之前的章节我们初步介绍了深度学习相关基础知识和训练神经网络&#xff1a; 深度学习基础&#xff08;一&#xff09;神经网络基本原理-CSDN博客文章浏览阅读924次&#xff0c;点赞13次&#xff0c;收藏19次。在如今的科技浪潮中&#xff0c;神经网络作为人工智能的核心技术之…

关于git子模块实践(一)

背景 在日常项目开发中&#xff0c;随着项目的迭代&#xff0c;不可避免的是主项目会引入到很多三方库&#xff0c;或者自研的一些模块。有一种场景&#xff0c;就是这些模块&#xff0c;是随着开发而进行迭代&#xff0c;且多个项目公用的&#xff0c;这种情况&#xff0c;在…

第3.3章:StarRocks数据导入——Stream Load

一、概述 Stream Load是StarRocks最为核心的导入方式&#xff0c;用户通过发送HTTP请求将本地文件或数据流导入至StarRocks中&#xff0c;其本身不依赖其他组件。 Stream Load支持csv和json两种数据文件格式&#xff0c;适用于数据文件数量较少且单个文件的大小不超过10GB 的场…

v-rep插件

v-rep官网插件汉化教程 官网教程 插件是什么 插件本质上就是遵循一定规范的API编写出来的程序&#xff0c;在v-rep中最终需要编译为动态库。 linux下是libsimXXXX.so&#xff1b; 其中XXXX是插件的名称。 请至少使用4个字符&#xff0c;并且不要使用下划线&#xff0c;因为…

kafka生产者2

1.数据可靠 • 0&#xff1a;生产者发送过来的数据&#xff0c;不需要等数据落盘应答。 风险&#xff1a;leader挂了之后&#xff0c;follower还没有收到消息。。。。 • 1&#xff1a;生产者发送过来的数据&#xff0c;Leader收到数据后应答。 风险&#xff1a;leader应答…

【机器学习】数据清洗——基于Numpy库的方法删除重复点

&#x1f388;个人主页&#xff1a;豌豆射手^ &#x1f389;欢迎 &#x1f44d;点赞✍评论⭐收藏 &#x1f917;收录专栏&#xff1a;机器学习 &#x1f91d;希望本文对您有所裨益&#xff0c;如有不足之处&#xff0c;欢迎在评论区提出指正&#xff0c;让我们共同学习、交流进…

PostgreSQL索引篇 | BTree

B-Tree索引 &#xff08;本文为《PostgreSQL数据库内核分析》一书的总结笔记&#xff0c;需要电子版的可私信我&#xff09; B树特点&#xff1a; 非叶子节点含一个或多个关键字值和子节点指针&#xff0c;不指向实际数据的存储位置所有关键字都是叶子节点&#xff0c;每个叶…

Python运算符你学会了吗?

1.算术运算符 &#xff08;加&#xff09;、-&#xff08;减&#xff09;、*&#xff08;乘&#xff09;、/&#xff08;除&#xff09;、%&#xff08;取余&#xff09;、//&#xff08;取整&#xff09;、**&#xff08;求幂&#xff09; a 12 b 3 c 7print(a b) # 15 …

关于Kinect 互动沙盘 深度图 Shader Graph 分层

把Kinect的深度图穿给Shader Graph using com.rfilkov.kinect; using UnityEngine; using UnityEngine.UI; public class GetDepthTex : MonoBehaviour { public Material Mat_SandTable; void Update() { Mat_SandTable.SetTexture("_MainTex"…