机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集)

算法评估矩阵(Algorithm Evaluation Metrics)用于评估机器学习算法在特定任务上的性能。不同的任务可能会使用不同的评估矩阵,因为每个任务的优劣衡量标准都不同。

分类算法矩阵

分类问题或许是最常见的机器学习问题,并且有多种评估矩阵来评估
分类算法。以下几种用来评估分类算法的评估矩阵:
· 分类准确度。
· 对数损失函数(Logloss)。
· AUC图。
· 混淆矩阵。
· 分类报告(Classification Report)。

分类准确度

分类准确度就是算法自动分类正确的样本数 除以 所有的样本数得出的结果。

分类准确度 = 算法自动分类正确的样本数 / 所有的样本数

通常,准确度越高,分类器越好。这是分类算法中最常见,也最易被误用的评估参数。准确度确实是一个很好、很直观的评价指标,但是有时候准确度高并不代表算法就一定好。

比如对某个地区某天地震的预测,
假设有一堆的特征作为地震分类的属性,类别却只有两个(0:不发生地震,1:发生地震)。一个不加思考的分类器对每一个测试用例都将类别划分为 0,那它就可能达到 99%的准确度,但真的地震时,这个分类器却毫无察觉,这个分类器造成的损失是巨大的。为什么拥有 99%的准确度的分类器却不是我们想要的,因为数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的准确度,却忽视了需要关注的事实和现象。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import cross_val_score, ShuffleSplit#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]Y = array[:, 8]
# 分割数据集
n_splits = 10# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold)
# 记录方法结束时间
print("算法评估结果准确度:%.3f (%.3f)" % (result.mean(), result.std()))

运行结果:

算法评估结果准确度:0.782 (0.052)

对数损失函数

在逻辑回归的推导中,它假设样本服从伯努利分布(0~1分布),然后求得满足该分布的似然函数,再取对数、求极值等。而逻辑回归并没有求似然函数的极值,而是把极大化当作一种思想,进而推导出它的经验风险函数为:最小化负的似然函数

[max F(y,f(x))→min-F(y,f(x))]。

从损失函数的视角来看,它就成了对数(Log)损失函数了。对数损失函数越小,模型就越好,而且使损失函数尽量是一个凸函数,便于收敛计算。

示例代码:


import pandas as pd
from sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import cross_val_score, ShuffleSplit#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]Y = array[:, 8]
# 分割数据集
n_splits = 10# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)scoring = 'neg_log_loss'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("neg_log_loss:%.3f (%.3f)" % (result.mean(), result.std()))

运行结果:

neg_log_loss:-0.477 (0.065)

AUC图

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate, TPR,也称为召回率)与假阳性率(False Positive Rate, FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

ROC和AUC是评价分类器的指标。ROC是受试者工作特征曲线 (Receiver Operating Characteristic Curve)的简写,又称为感受性曲线(Sensitivity Curve)。

得此名的原因在于曲线上各点反映相同的感受性,它们都是对同一信号刺激的反应,只不过是在几种不同的判定标准下所得的结果而已。ROC是反映敏感性和特异性连续变量的综合指标,用构图法揭示敏感性和特异性的相互关系,通过将连续变量设定出多个不同的临界值计算出一系列敏感性和特异性,再以敏感性为纵坐标、(1-特异性)为横坐标绘制成曲线。

AUC是ROC曲线下的面积(Area Under ROC Curve)的简称,顾名思义,AUC的值就是处于ROC
Curve下方的那部分面积的大 小。

通常,AUC的值介于0.5到1.0之间,AUC的值越大,诊断准确性越
。在ROC曲线上,靠近坐标图左上方的点为敏感性和特异性均较高的临界值。

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate,
TPR,也称为召回率)与假阳性率(False Positive Rate,
FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

为了解释ROC的概念,让我们考虑一个二分类问题,即将实例分成正类(Positive)或负类(Negative)。对一个二分类问题来说,会出现四种情况:

  • 如果一个实例是正类并且也被预测成正类,即为真正类(True
    Positive);
  • 如果实例是负类却被预测成正类,称之为假正类(False
    Positive)。
  • 如果实例是负类也被预测成负类,称之为真负类(True Negative);
  • 如果实例为正类却被预测成负类,则为假负类(FalseNegative)。

列联表或混淆矩阵如下表所示,“1”代表正类,“0”代表负类。

在这里插入图片描述
基于该列联表,定义敏感性指标为:sensitivity=TP/(TP+FN)。敏感性指标又称为真正类率(True Positive Rate,TPR),计算的是分类器所识别出的正实例占所有正实例的比例。

另外,定义负正类率(False Positive Rate,FPR)的计算公式为:FPR=FP/(FP+TN),负正类率计算的是分类器错认为正类的负实例占所有负实例的比例。

定义特异性指标为:Specificity=TN/(FP+TN)=1-FPR。特异性指标又称为真负类率(True Negative Rate,TNR)。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegressionfrom sklearn.model_selection import cross_val_score, ShuffleSplit#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]Y = array[:, 8]
# 分割数据集
n_splits = 10# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)scoring = 'roc_auc'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("roc_auc:%.3f (%.3f)" % (result.mean(), result.std()))

运行结果:

roc_auc:0.839 (0.054)

ROC AUC(Receiver Operating Characteristic Area Under the Curve)的评估结果为0.839,其中括号内的0.054表示标准差。

在给出的结果中,ROC AUC为0.839,说明模型的分类性能较好,它相对于随机分类有明显的优势。标准差为0.054表示这个评估结果在不同数据集或实验中可能会有一定的波动,但整体上来看,该模型的性能是比较稳定的。

值得注意的是,ROC AUC只适用于二分类问题,对于多类别分类问题,可以考虑使用一些其他的指标,如平均精确率均值(Mean Average Precision, mAP)等。

混淆矩阵

混淆矩阵(Cnfusion Matrix)主要用于比较分类结果和实际测得值,可以把分类结果的精度显示在一个混淆矩阵里面。混淆矩阵是可视化工具,特别适用于监督学习,在无监督学习时一般叫作匹配矩阵。混淆矩阵的每列代表预测类别,每列的总数表示预测为该类别的数据的数目;每行代表数据的真实归属类别,每行的数据总数表示该类别的数据的数目。每列中的数值表示真实数据被预测为该类的数目。

如下表所示,有150个样本数据,这些数据分成 3 类,每类 50 个。
分类结束后得到的混淆矩阵,每行之和为50,表示50个样本

第一行说明类1的50个样本有43个分类正确,5个错分为类2,2个错分为类3。

在这里插入图片描述
代码示例:

  1. 使用Pandas库读取糖尿病数据集,并将数据转换为数组形式。
  2. 将特征和标签分别赋值给X和Y。
  3. 使用train_test_split函数将数据集分割为训练集和测试集,其中测试集占33%。
  4. 创建一个逻辑回归模型,并使用训练集拟合模型。
  5. 使用模型对测试集进行预测,并计算混淆矩阵。
  6. 输出混淆矩阵的DataFrame形式。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrixfrom sklearn.model_selection import cross_val_score, ShuffleSplit, train_test_split#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]Y = array[:, 8]
# 分割数据集test_size = 0.33
# 随机数种子
seed = 7
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)# 训练模型
model.fit(X_train, Y_train)# 评估模型
predictions = model.predict(X_test)# 混淆矩阵
matrix = confusion_matrix(Y_test, predictions)classes = ['0', '1']# 创建混淆矩阵
dataframe = pd.DataFrame(matrix, index=classes, columns=classes)
# 绘制热力图
print(dataframe)

运行结果:

     0   1
0  142  20
1   34  58

根据输出的混淆矩阵,可以解释如下:

  1. 阴性(类别0)的样本中,模型正确地预测了142个样本,但错误地将20个样本预测为了阳性(假阳性)。
  2. 阳性(类别1)的样本中,模型正确地预测了58个样本,但错误地将34个样本预测为了阴性(假阴性)。

通过混淆矩阵,我们可以计算出一系列分类算法的评估指标:

精确率(Precision):对于预测为阳性(类别1)的样本中,有58个样本是真正的阳性,所以Precision为58 / (58 + 20) ≈ 0.7436。

召回率(Recall):对于实际为阳性(类别1)的样本中,有58个样本被正确地预测为阳性,所以Recall为58 / (58 + 34) ≈ 0.6304。

F1分数(F1-Score):综合考虑Precision和Recall的调和平均值,F1-Score = 2 * (Precision * Recall) / (Precision + Recall) ≈ 0.6832。

准确率(Accuracy):计算预测正确的样本数占总样本数的比例,即 (142 + 58) / (142 + 20 + 34 + 58) ≈ 0.7765。

这些评估指标能够帮助我们更全面地了解分类算法在这个特定任务上的性能。根据实际需求,可以选择合适的评估指标来衡量模型的性能。

分类报告

分类报告(classification_report)是一个包含精确率、召回率、F1分数等指标的报告,用于评估分类模型的性能。通常,它会显示每个类别的指标,并在最后提供一个加权平均值或宏平均值。

在 scikit-learn 中提供了一个非常方便的工具,可以给出对分类问题的评估报告,Classification_report()方法能够给出精确率(precision)、召回率(recall)、F1值(F1-score)和样本数目(support)。在这里简单地介绍一下三个指标数据:精确率、召回率、F1值。

在介绍这三个指标数据之前,我们先定义TP、FN、FP、TN四种分类
情况,我们借助下表来说明。

在这里插入图片描述

精确率的 公式P=TP/(TP+FP),计算的是所有被检索到的项目中应该被检索到的项目占的比例。

召回率的公式R=TP/(TP+FN),计算的是所有检索到的项目占所有应该检索到的项目的比例。

F1值就是精确率和召回率的调和均值,也就是2F1=P+R

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_reportfrom sklearn.model_selection import train_test_split#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]Y = array[:, 8]
# 分割数据集test_size = 0.33
# 随机数种子
seed = 4
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)# 训练模型
model.fit(X_train, Y_train)# 评估模型
predictions = model.predict(X_test)report = classification_report(Y_test, predictions)print(report)

运行结果:

              precision    recall  f1-score   support0.0       0.84      0.87      0.86       1711.0       0.71      0.66      0.69        83accuracy                           0.80       254macro avg       0.78      0.77      0.77       254
weighted avg       0.80      0.80      0.80       254

根据给出的分类报告,逻辑回归模型在测试集上的性能如下:

  • 对于类别0(阴性):精确率(Precision)为0.84,召回率(Recall)为0.87,F1分数为0.86。说明模型在预测阴性样本时,有较高的精确性和召回率,F1分数也较高。

  • 对于类别1(阳性):精确率为0.71,召回率为0.66,F1分数为0.69。说明模型在预测阳性样本时,精确率和召回率相对较低,F1分数也较低。

  • accuracy(准确率)为0.80,表示模型在测试集上的整体准确率为80%。

  • macro avg(宏平均值)是所有类别的平均值,精确率为0.78,召回率为0.77,F1分数为0.77。

  • weighted avg(加权平均值)是根据各类别样本数量加权的平均值,精确率为0.80,召回率为0.80,F1分数为0.80。

综合来看,该逻辑回归模型在阴性样本上表现较好,但在阳性样本上表现相对较差。整体上,模型的准确率为80%,在不同类别上的F1分数在0.69到0.86之间。根据具体任务的要求,可以根据分类报告中的指标来调整模型或优化特征,以改善模型的性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/22544.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

java通过http网络url下载文件

Testpublic void test3() throws ParseException {String fileUrl "http://*****/123.pdf";String savePath "C:\\Users\\HHH\\Desktop\\文件\\123.pdf";try {URL url new URL(fileUrl);InputStream inputStream url.openStream();Path outputPath Pa…

Android Studio 报错:Failed to create Jar file xxxxx.jar

通过分析,新下载的项目没有project/gradle目录,故通过其他项目复制到当前项目,就解决了该问题。 同时也出现了新的问题 Unable to start the daemon process.The project uses Gradle 4.1 which is incompatible with Java 11 or newer.原因…

Linux中的firewall-cmd

2023年8月4日,周五上午 目录 打开端口关闭端口查看某个端口是否打开查看当前防火墙设置firewall-cmd中的服务在防火墙中什么是服务?为什么会有服务?打开或关闭服务查看某个服务是否打开firewall-cmd中的 zones查看所有可用的zones&#xff0…

搭建Django+pyhon+vue自动化测试平台

Django安装 使用管理员身份运行pycharm使用local 1 pip install django -i https://pypi.tuna.tsinghua.edu.cn/simple 检查django是否安装成功 1 python -m django --version 创建项目 1 1 django-admin startproject test cd 切换至创建的项目中启动django项目…

bash测试test详解

bash测试test详解 概述 任何相对完整的计算机语言都能够测试某个条件,然后根据测试的结果采取不同的动作。对于测试条件, Bash使用test命令、各种方括号和圆括号、if/then结构等来测试条件。 7.1. Test Constructs 一个if/then语句结构测试一个或多个命…

Swish - Mac 触控板手势窗口管理工具[macOS]

Swish for Mac是一款Mac触控板增强工具,借助直观的两指轻扫,捏合,轻击和按住手势,就可以从触控板上控制窗口和应用程序。 Swish for Mac又不仅仅只是一个窗口管理器,Swish具有28个易于使用的标题栏,停靠栏…

PHP Thinkphp5.0实现抖音团购券码核销

上一篇文章我们说到项目里需要用到美团API接口来实现卡券核销的功能。 那么这篇文章就讲一下,如何实现抖音团购券码的核销功能。 近期项目需要,抖音团购的券码核销,话不多说,直接上代码吧! 凑合着用吧,反正…

pytorch的CrossEntropyLoss交叉熵损失函数默认是平均值

pytorch中使用nn.CrossEntropyLoss()创建出来的交叉熵损失函数计算损失默认是求平均值的,即多个样本输入后获取的是一个均值标量,而不是样本大小的向量。 net nn.Linear(4, 2) loss nn.CrossEntropyLoss() X torch.rand(10, 4) y torch.ones(10, dt…

MySQL表的内外连接

MySQL表的内外连接 一.内连接二.外连接1. 左外连接2. 右外连接 三.案例 表的连接分为内连和外连。 一.内连接 内连接实际上就是利用where子句对两种表形成的笛卡儿积进行筛选,我们前面学习的查询都是内连接,也是在开发过程中使用的最多的连接查询。而使…

DBA 职责及日常工作职责

DBA 职责及日常工作职责: 1.安装和升级数据库服务器,以及应用程序工具构建和配置网络环境. 2.熟悉数据库系统的存储结构预测未来的存储需求,制订数据库的存储方案. 3.根据开发人员设计的应用系统需求创建数据库存储结构. 4.根据开发人员设计的应用系统需求创建数据库对象 5…

刷题DAY15

第一题 给定一个数组arr 求子数组最大累加和 最暴力的 枚举每一个子数组 出结果 优化解 用一个cur指针保存累加和 每次cur变大 就用它更新max 如果cur累加到0以下 回复成0 假设答案法 假设我们最大的子数组是i 到 j位置上的 那么这个i 到j 之间 必不存在一个k使i...k累加和…

网络面试题-UDPTCP

1 UDP 1.1 ⾯向报⽂ UDP 是⼀个⾯向报⽂(报⽂可以理解为⼀段段的数据)的协议。意思就是UDP 只是报⽂的搬运⼯,不会对报⽂进⾏任何拆分和拼接操作 具体来说 在发送端,应⽤层将数据传递给传输层的 UDP 协议, UDP 只会…

Aligning Large Language Models with Human: A Survey

本文也是LLM相关的综述文章,针对《Aligning Large Language Models with Human: A Survey》的翻译。 对齐人类与大语言模型:综述 摘要1 引言2 对齐数据收集2.1 来自人类的指令2.1.1 NLP基准2.1.2 人工构造指令 2.2 来自强大LLM的指令2.2.1 自指令2.2.2 …

sql分类 DDL、DML、DCL

DDL (Data Definition Language 数据定义语言) 这些语句定了不同的数据库、表、视图、索引等数据库对象,还可以用来创建、删除、修改数据库和数据表的结构 如: CREATE \ DROP \ ALTER \ RENAME \ TRUNCATE 等 DML(Data Manipulation Langua…

前端面试的性能优化部分(3)每天10个小知识点

31.请解释前端性能优化的重要性以及优化的目标是什么? 前端性能优化是指在网页或应用的前端部分(通常是指用户界面)进行改进,以提高其加载速度、响应性能和用户体验。在现代互联网应用中,前端性能优化至关重要&#x…

antDv table组件滚动截图方法的实现

在开发中经常遇到table内容过多产生滚动的场景,正常情况下不产生滚动进行截图就很好实现,一旦产生滚动就会变得有点棘手。 下面分两种场景阐述解决的方法过程 场景一:右侧不固定列的情况 场景二:右侧固定列的情况 场景一 打开…

汽车电子功能安全

功能安全考虑 分析方法:FMEA,DFMEA(设计潜在失效模式和影响分析) 严重度(Severity),暴露率(Exposure),可控性(Controllability)评估…

IDEA中maven项目失效,pom.xml文件橙色/橘色

IDEA中maven项目失效,pom.xml文件橙色/橘色 IDEA中Maven项目失效 IDEA中创建的maven项目中的文件夹都变成普通格式,pom.xml变成橙色 右键点击橙色的pom.xml文件,选择add as maven project maven项目开始重新导入相应依赖,恢复…

JavaScript |(四)正则表达式 | 尚硅谷JavaScript基础实战

学习来源:尚硅谷JavaScript基础&实战丨JS入门到精通全套完整版 文章目录 📚正则表达式📚正则表达式字面量方式📚字符串&正则表达式🐇split()🐇search()🐇match()🐇replace()…

MyBatis-动态SQL-if and where

动态SQL 随着用户的输入或外部条件的变化而变化的SQL语句,我们称之为动态SQL语句 select *from empwhere name like concat(%, #{name}, %)and gender #{gender}and entrydate between #{begin} and #{end}order by update_time desc; 在上述的SQL语句…