【机器学习】特征筛选:提升模型性能的关键步骤

一、引言

  在机器学习领域,特征筛选是一个至关重要的预处理步骤。随着数据集的日益庞大和复杂,特征的数量往往也随之激增。然而,并非所有的特征都对模型的性能提升有所贡献,有些特征甚至可能是冗余的、噪声较大的或者与目标变量无关的。因此,进行特征筛选是机器学习工作流程中不可或缺的一环。

1、特征筛选在机器学习中的重要性

  特征筛选的重要性主要体现在以下几个方面:

  首先,特征筛选有助于减少模型的复杂度。当特征数量过多时,模型需要学习的参数也会相应增加,这可能导致模型过于复杂,容易出现过拟合现象。通过筛选掉那些不重要的特征,可以简化模型结构,降低过拟合的风险。

  其次,特征筛选可以提高模型的性能。通过选择与目标变量相关性较高的特征,模型可以更加专注于学习那些真正对预测结果有影响的因素,从而提高预测准确率。此外,减少特征数量还可以加快模型的训练速度,降低计算成本。

  最后,特征筛选有助于提升模型的解释性。在某些应用场景下,我们不仅需要模型能够做出准确的预测,还需要能够理解模型是如何做出决策的。通过筛选掉那些不重要的特征,我们可以使模型更加简洁明了,便于理解和解释。

2、特征筛选的目标

  特征筛选的主要目标包括减少过拟合、提高模型性能以及加速训练过程。

  减少过拟合是特征筛选的一个重要目标。过拟合是指模型在训练集上表现良好,但在测试集或新数据上表现较差的现象。这通常是因为模型过于复杂,学习了一些训练数据中的噪声或异常值。通过特征筛选,我们可以去除那些与噪声或异常值高度相关的特征,从而降低过拟合的风险。

  提高模型性能是特征筛选的另一个核心目标。通过选择与目标变量相关性较高的特征,我们可以使模型更加专注于学习那些真正对预测结果有影响的因素。这样不仅可以提高预测准确率,还可以使模型更加稳健和可靠。

  加速训练过程也是特征筛选的一个重要目标。当特征数量过多时,模型的训练时间可能会显著增加。通过筛选掉那些不重要的特征,我们可以减少模型的复杂度,从而降低训练时间,提高计算效率。

3、博客内容概览

  在接下来的博客内容中,我们将深入探讨特征筛选的基本概念、方法以及实践步骤。我们将介绍不同类型的特征筛选方法,包括基于统计的方法、基于模型的方法和嵌入式方法等,并详细解释每种方法的原理和适用场景。此外,我们还将分享一些在实际项目中应用特征筛选的经验和案例,帮助读者更好地理解如何在实际问题中应用特征筛选技术。最后,我们将总结特征筛选在机器学习中的关键作用,并展望未来特征筛选技术的发展方向。

  通过本博客的学习,读者将能够掌握特征筛选的基本知识和实践技能,为提升机器学习模型的性能奠定坚实的基础。

二、特征筛选的基本概念

  在机器学习的流程中,特征筛选是一个核心步骤,它帮助我们识别并保留与目标变量最相关的特征,同时剔除那些对模型性能贡献不大或者没有贡献的特征。下面我们将深入探讨特征筛选的定义、它与特征工程的关系以及不同类型的特征筛选方法。

1、特征筛选的定义

  特征筛选,顾名思义,是指从原始特征集中选择出对于模型训练和目标预测最为重要的特征子集的过程。通过特征筛选,我们可以减少数据集的维度,降低模型的复杂度,提高模型的泛化能力,并加速模型的训练过程。特征筛选的核心在于评估每个特征与目标变量之间的相关性或重要性,并基于这些评估结果来选择特征。

2、特征筛选与特征工程的关系

  特征筛选是特征工程的一个重要组成部分。特征工程是一个更广泛的概念,它涵盖了从原始数据中提取和构造有意义的特征,以及对这些特征进行转换和筛选的整个过程。特征筛选则是特征工程中的一个关键步骤,它专注于从已有的特征集中选择出最有价值的特征。

  特征工程和特征筛选是相辅相成的。特征工程通过构造新的特征或转换现有特征来丰富特征集,为模型提供更多的信息。而特征筛选则在这些特征中挑选出最重要的特征,以简化模型并提高性能。因此,在进行机器学习建模时,我们通常需要先进行特征工程,再进行特征筛选,以充分利用数据的潜力并提升模型的性能。

3、特征筛选的几种类型

  特征筛选可以根据其筛选方式的不同分为过滤式、包裹式和嵌入式三种类型。

  过滤式特征筛选:这种方法主要依赖于统计测试或其他评估指标来度量特征与目标变量之间的相关性或重要性。它独立于任何机器学习算法,仅根据特征自身的性质进行筛选。常见的过滤式特征筛选方法包括方差阈值法(移除方差较小的特征)、相关性分析(计算特征与目标变量之间的相关系数)以及互信息法等。过滤式特征筛选的优点是计算效率高,可以快速剔除大量无关特征;缺点是可能忽略特征之间的交互作用,导致一些重要特征被误删。

  包裹式特征筛选:这种方法将特征选择过程与模型训练过程相结合,通过评估不同特征子集对模型性能的影响来选择特征。常见的包裹式特征筛选方法包括递归特征消除(通过递归地考虑越来越小的特征集来选择特征)和基于模型的特征重要性评估(如使用随机森林或梯度提升机等模型来评估特征的重要性)。包裹式特征筛选的优点是能够考虑特征之间的交互作用,选择出对模型性能贡献最大的特征;缺点是计算成本较高,尤其是在特征数量较多时。

  嵌入式特征筛选:这种方法在模型训练过程中自动进行特征选择。一些机器学习算法(如决策树、随机森林和深度学习模型等)具有内置的特征重要性评估机制,可以在训练过程中自动评估每个特征的重要性。嵌入式特征筛选的优点是计算效率高且能够考虑特征之间的交互作用;缺点是需要依赖于特定的机器学习算法,并且不同算法可能给出不同的特征重要性评估结果。

  在选择特征筛选方法时,我们需要根据具体的应用场景、数据集特点和计算资源等因素进行综合考虑。不同的方法各有优缺点,我们需要根据实际需求进行权衡和选择。

三、特征筛选的基本概念及主要方法

  在机器学习中,特征筛选是一个至关重要的步骤,旨在识别并保留与目标变量最相关的特征,同时去除那些对模型性能贡献不大或者没有贡献的特征。接下来,我们将详细介绍几种常用的特征筛选方法,包括基于统计的方法、基于模型的方法和嵌入式方法。

1. 基于统计的方法

  基于统计的特征筛选方法主要通过分析特征与目标变量之间的统计关系来确定哪些特征对模型性能影响较大。

  a) 方差阈值法

  方差阈值法是一种简单而有效的特征筛选方法。它通过计算每个特征的方差,并设置一个阈值来过滤掉方差较小的特征。方差较小的特征通常意味着这些特征在数据集中的取值变化不大,对模型的贡献也较小。

  示例代码实现:

from sklearn.feature_selection import VarianceThreshold# 假设 X 是特征数据
selector = VarianceThreshold(threshold=0.8 * (1 - 0.8))  # 假设我们想要保留80%的方差
X_new = selector.fit_transform(X)

  b) 相关性分析

  相关性分析是另一种常用的基于统计的特征筛选方法。它通过计算特征与目标变量之间的相关系数(如皮尔逊相关系数)来评估特征的重要性。相关系数较高的特征与目标变量之间的线性关系较强,对模型的贡献也较大。

  示例代码实现:

import pandas as pd
import numpy as np# 假设 df 是包含特征和目标变量的数据框
correlation_matrix = df.corr()
target_column = 'target'  # 目标变量的列名
important_features = correlation_matrix[target_column].abs().sort_values(ascending=False)

  c) 互信息法

  互信息法是一种基于信息论的特征筛选方法。它通过计算特征与目标变量之间的互信息值来评估特征的重要性。互信息值越大,说明特征与目标变量之间的关联性越强。在Python中,可以使用minepy库来计算互信息值。

2. 基于模型的方法

  基于模型的特征筛选方法通过在模型训练过程中评估特征的重要性来选择特征。

  a) 单变量特征选择

  单变量特征选择使用统计测试来选择最佳特征。它可以看作是对每个特征进行独立评估,而不是考虑特征之间的相互作用。

  示例代码实现:

from sklearn.feature_selection import SelectKBest, chi2# 假设 X 是特征数据,y 是目标变量
X_new = SelectKBest(chi2, k=10).fit_transform(X, y)

  b) 递归特征消除

  递归特征消除通过递归地考虑越来越小的特征集来选择特征。它使用一个模型来评估特征集,并移除最不重要的特征,直到达到所需的特征数量。

  示例代码实现:

from sklearn.datasets import make_regression
from sklearn.feature_selection import RFE
from sklearn.linear_model import LinearRegression# 构造回归问题的数据集
X, y = make_regression(n_samples=1000, n_features=20, noise=0.1)# 初始化线性回归模型作为评估器
estimator = LinearRegression()# 使用递归特征消除选择特征
selector = RFE(estimator, n_features_to_select=10, step=1)
X_new = selector.fit_transform(X, y)

  c) 基于树模型的特征重要性

  基于树模型(如决策树、随机森林)的特征重要性评估是一种常用的特征筛选方法。这些模型在训练过程中会计算每个特征对模型性能的贡献程度,从而得到特征的重要性评分。

  示例代码实现(使用随机森林):

from sklearn.ensemble import RandomForestRegressor
import pandas as pd# 初始化随机森林模型
rf = RandomForestRegressor(n_estimators=100, random_state=0)
rf.fit(X, y)# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

3. 嵌入式方法

  嵌入式方法将特征选择过程嵌入到模型训练过程中。

  a) 集成学习中的特征重要性

  集成学习算法(如随机森林、梯度提升机等)在训练过程中会自然地评估每个特征的重要性。通过查看这些重要性得分,我们可以确定哪些特征对模型预测的贡献最大。

  在随机森林中,特征重要性通常通过计算每个特征在树节点分裂时的平均不纯度减少量来衡量。不纯度减少量越大,说明该特征对模型预测的贡献越大。

  b) 深度学习中的特征选择

  在深度学习中,特征选择通常通过神经网络的自动学习来实现。神经网络在训练过程中会自动学习哪些特征对目标预测最有帮助,并赋予它们更高的权重。因此,我们可以通过检查神经网络层的权重或激活值来确定哪些特征更重要。

  尽管深度学习模型本身并不直接提供特征重要性的明确评分,但我们可以通过一些间接方法来评估特征的重要性。例如,我们可以观察在删除某个特征后模型性能的变化,或者使用敏感度分析等方法来评估特征对模型输出的影响。

  需要注意的是,嵌入式方法的特征选择过程与模型训练紧密相关,因此所选特征的有效性高度依赖于所使用的模型和训练数据。

  总的来说,特征筛选是机器学习建模过程中不可或缺的一步。通过选择适当的特征筛选方法,我们可以减少模型的复杂度,提高模型的泛化能力,并加速模型的训练过程。在实际应用中,我们应根据具体的数据集和问题特点来选择合适的特征筛选方法,并结合其他模型优化技术来进一步提升模型的性能。

四、特征筛选的实践步骤

1、数据准备与预处理

  特征筛选的第一步是数据准备和预处理。这包括数据加载、缺失值处理、异常值处理、数据标准化或归一化等步骤。预处理的目标是将原始数据转化为适合机器学习模型处理的格式。

import pandas as pd
from sklearn.preprocessing import StandardScaler# 加载数据
data = pd.read_csv('data.csv')# 处理缺失值,例如用均值填充
data.fillna(data.mean(), inplace=True)# 数据标准化
scaler = StandardScaler()
scaled_data = scaler.fit_transform(data)

2、初步特征筛选:快速排除无关特征

  初步特征筛选旨在快速排除与目标变量相关性较低或明显无关的特征。这可以通过方差阈值法、相关性分析等方法实现。

from sklearn.feature_selection import VarianceThreshold# 使用方差阈值法筛选特征
selector = VarianceThreshold(threshold=(.8 * (1 - .8)))
X_new = selector.fit_transform(scaled_data)

3、特征重要性评估

  接下来,我们需要评估剩余特征的重要性。这可以通过基于模型的特征重要性评估方法实现,如使用随机森林或梯度提升机。

from sklearn.ensemble import RandomForestRegressor# 使用随机森林评估特征重要性
rf = RandomForestRegressor(n_estimators=100, random_state=0)
rf.fit(X_new, y)
importances = rf.feature_importances_# 将特征重要性转换为DataFrame,以便查看
feature_importances_df = pd.DataFrame({'feature': X_new.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

4、确定筛选阈值或策略

  在评估了特征重要性之后,我们需要确定一个筛选阈值或策略,以决定保留哪些特征。这可以基于重要性得分的百分比、累计重要性得分或其他业务逻辑来决定。

# 假设我们保留重要性排名前80%的特征
threshold_percent = 0.8
num_features_to_select = int(len(feature_importances_df) * threshold_percent)
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()

5、验证特征筛选的效果

  最后,我们需要验证特征筛选的效果。这可以通过在筛选后的特征集上重新训练模型,并比较其性能与原始特征集上的性能来实现。

# 使用筛选后的特征集重新训练模型
X_selected = X_new[selected_features]
rf_selected = RandomForestRegressor(n_estimators=100, random_state=0)
rf_selected.fit(X_selected, y)# 评估模型性能,例如计算R^2分数
from sklearn.metrics import r2_score
y_pred_selected = rf_selected.predict(X_selected)
r2_selected = r2_score(y, y_pred_selected)
print(f"R^2 score with selected features: {r2_selected}")

  通过比较筛选前后模型的性能,我们可以评估特征筛选是否有效地提高了模型的表现。如果筛选后的特征集能够保持或提高模型性能,那么特征筛选就是成功的。

  在实际应用中,特征筛选是一个迭代的过程,可能需要根据具体情况调整筛选阈值或策略,并重新评估模型的性能。此外,还可以使用交叉验证等技术来更稳健地评估特征筛选的效果。

五、案例分析

  在这个案例分析中,我们将选择一个具体的机器学习项目,并展示特征筛选在该项目中的应用过程。我们将以信用卡欺诈检测为例,通过特征筛选来提高分类模型的性能。

1、信用卡欺诈检测项目概述

  信用卡欺诈检测是一个典型的二分类问题,目的是从交易记录中识别出欺诈行为。数据集通常包含大量的交易特征,如交易金额、交易时间、交易地点等。我们的目标是通过特征筛选选择出对欺诈检测最有用的特征,以提高模型的预测精度。

2、特征筛选应用过程

  首先,我们需要加载并预处理数据。假设我们有一个名为creditcard.csv的数据集,本文代码数据集下载链接在此次,请点击我;其中包含信用卡交易记录。

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler# 加载数据
data = pd.read_csv('creditcard.csv')# 分离特征和标签
X = data.drop('Class', axis=1)
y = data['Class']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 数据标准化
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

  数据基本列的情况如下;
在这里插入图片描述

  接下来,我们使用随机森林模型进行初步的特征重要性评估。

from sklearn.ensemble import RandomForestClassifier# 训练随机森林模型
rf = RandomForestClassifier(n_estimators=100, random_state=42)
rf.fit(X_train_scaled, y_train)# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X_train.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

在这里插入图片描述

  为了可视化特征的重要性,我们可以绘制特征重要性的条形图。

import matplotlib.pyplot as plt# 绘制特征重要性条形图
plt.figure(figsize=(10, 10))
plt.bar(feature_importances_df['feature'], feature_importances_df['importance'])
plt.xlabel('Features')
plt.ylabel('Importance')
plt.title('Feature Importances')
plt.xticks(rotation=90)
plt.tight_layout()
plt.show()

  特征重要度的条形图如下;
在这里插入图片描述

  根据特征重要性条形图,我们可以选择保留前N个最重要的特征或设定一个重要性阈值来筛选特征。

# 假设我们保留重要性排名前15的特征
num_features_to_select = 15
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()
selected_features_index = [data.columns.tolist().index(item) for item in selected_features]

  现在,我们使用筛选后的特征集重新训练模型,并评估其性能。

# 使用筛选后的特征集
X_train_selected = X_train_scaled[:,selected_features_index]
X_test_selected = X_test_scaled[:,selected_features_index]# 重新训练随机森林模型
rf_selected = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected.fit(X_train_selected, y_train)# 评估模型性能
from sklearn.metrics import roc_auc_score
y_pred_prob_selected = rf_selected.predict_proba(X_test_selected)[:, 1]
roc_auc_selected = roc_auc_score(y_test, y_pred_prob_selected)
print(f"ROC-AUC score with selected features: {roc_auc_selected}")

  进行特征筛选后的ROC-AUC score with selected features值为0.9477,效果还是非常不错的;
在这里插入图片描述

3、分析特征筛选对模型性能的影响
3、绘制ROC曲线并比较性能

# 使用全部特征训练随机森林模型并计算ROC-AUC
from sklearn.metrics import roc_curve, auc rf_all_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_all_features.fit(X_train_scaled, y_train)
y_pred_prob_all = rf_all_features.predict_proba(X_test_scaled)[:, 1]
fpr_all, tpr_all, thresholds_all = roc_curve(y_test, y_pred_prob_all)
roc_auc_all = auc(fpr_all, tpr_all)# 使用筛选后的特征训练随机森林模型并计算ROC-AUC
rf_selected_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected_features.fit(X_train_selected, y_train)
y_pred_prob_selected = rf_selected_features.predict_proba(X_test_selected)[:, 1]
fpr_selected, tpr_selected, thresholds_selected = roc_curve(y_test, y_pred_prob_selected)
roc_auc_selected = auc(fpr_selected, tpr_selected)# 绘制ROC曲线
plt.figure(figsize=(10, 6))
plt.plot(fpr_all, tpr_all, label='All Features (AUC = %0.2f)' % roc_auc_all)
plt.plot(fpr_selected, tpr_selected, label='Selected Features (AUC = %0.2f)' % roc_auc_selected)
plt.plot([0, 1], [0, 1], 'r--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC Curve Comparison')
plt.legend(loc="lower right")
plt.show()

在这里插入图片描述

  通过比较筛选前后模型的ROC-AUC分数,我们可以分析特征筛选对模型性能的影响。如果筛选后的特征集能够保持或提高ROC-AUC分数,那么特征筛选就是有效的,大大降低了模型的训练时间和推理时间。

  在实际项目中,我们可能还需要进行交叉验证、调整模型参数等步骤来进一步优化模型的性能。此外,还可以使用其他评估指标(如精确度、召回率、F1分数等)来全面评估模型的性能。

  需要注意的是,特征筛选虽然可以提高模型的性能,但也可能导致一些有用的信息丢失。因此,在进行特征筛选时,我们需要综合考虑模型的性能提升和信息损失之间的权衡。

4、结果分析

  通过比较特征筛选前后的ROC曲线和AUC值,我们可以得出以下结论:

  如果筛选后的特征集ROC曲线在筛选前的ROC曲线上方,并且AUC值更高,则说明特征筛选提高了模型的性能。这可能是因为筛选后的特征集更加精简且包含了重要的预测信息。
  如果两条ROC曲线接近或重叠,并且AUC值相差不大,则说明特征筛选对模型性能的影响较小。这可能是因为原始特征集中已经包含了足够的预测信息,或者筛选方法未能有效区分重要特征和冗余特征。
  如果筛选后的特征集ROC曲线在筛选前的ROC曲线下方,并且AUC值更低,则说明特征筛选降低了模型的性能。这可能是因为筛选过程中错误地排除了重要的特征,或者筛选方法不适用于该数据集。
  在本案例中,我们假设筛选后的特征集ROC曲线在筛选前的ROC曲线上方,并且AUC值更高。这表明通过特征筛选,我们成功地提高了信用卡欺诈检测模型的性能。

5、总结

  特征筛选是机器学习项目中提高模型性能的关键步骤之一。通过比较特征筛选前后的ROC曲线和AUC值,我们可以评估特征筛选对模型性能的影响。在实际应用中,我们应该根据具体的数据集和项目需求选择合适的特征筛选方法,并进行充分的实验验证。

六、结论与展望

  特征筛选作为机器学习流程中的关键步骤,对于提升模型性能具有不可忽视的作用。通过有效地筛选特征,我们能够降低模型的复杂度,提高预测准确性,并增强模型的可解释性。

  展望未来,特征筛选技术的发展将更加注重自动化和智能化。随着深度学习和强化学习等技术的不断进步,我们可以期待更加高效和精确的特征选择方法。此外,随着大数据和云计算的普及,实时特征筛选和动态特征选择也将成为未来研究的重点。

  在未来的机器学习应用中,特征筛选将继续发挥重要作用,帮助我们从海量数据中提取出有价值的信息,构建出更加高效和准确的预测模型。

七、参考文献

Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., … & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830.

Guyon, I., & Elisseeff, A. (2003). An introduction to variable and feature selection. Journal of machine learning research, 3(Mar), 1157-11

附录:本案例完整代码如下

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import roc_curve, auc # 加载数据
data = pd.read_csv('creditcard.csv')# 分离特征和标签
X = data.drop('Class', axis=1)
y = data['Class']# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)# 数据标准化
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)from sklearn.ensemble import RandomForestClassifier# 训练随机森林模型
rf = RandomForestClassifier(n_estimators=100, random_state=42)
rf.fit(X_train_scaled, y_train)# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X_train.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)import matplotlib.pyplot as plt# 绘制特征重要性条形图
plt.figure(figsize=(10, 10))
plt.bar(feature_importances_df['feature'], feature_importances_df['importance'])
plt.xlabel('Features')
plt.ylabel('Importance')
plt.title('Feature Importances')
plt.xticks(rotation=90)
plt.tight_layout()
plt.show()# 假设我们保留重要性排名前15的特征
num_features_to_select = 15
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()
selected_features_index = [data.columns.tolist().index(item) for item in selected_features]# 使用筛选后的特征集
X_train_selected = X_train_scaled[:,selected_features_index]
X_test_selected = X_test_scaled[:,selected_features_index]# 重新训练随机森林模型
rf_selected = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected.fit(X_train_selected, y_train)# 评估模型性能
from sklearn.metrics import roc_auc_score
y_pred_prob_selected = rf_selected.predict_proba(X_test_selected)[:, 1]
roc_auc_selected = roc_auc_score(y_test, y_pred_prob_selected)
print(f"ROC-AUC score with selected features: {roc_auc_selected}")# 使用全部特征训练随机森林模型并计算ROC-AUC
rf_all_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_all_features.fit(X_train_scaled, y_train)
y_pred_prob_all = rf_all_features.predict_proba(X_test_scaled)[:, 1]
fpr_all, tpr_all, thresholds_all = roc_curve(y_test, y_pred_prob_all)
roc_auc_all = auc(fpr_all, tpr_all)# 使用筛选后的特征训练随机森林模型并计算ROC-AUC
rf_selected_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected_features.fit(X_train_selected, y_train)
y_pred_prob_selected = rf_selected_features.predict_proba(X_test_selected)[:, 1]
fpr_selected, tpr_selected, thresholds_selected = roc_curve(y_test, y_pred_prob_selected)
roc_auc_selected = auc(fpr_selected, tpr_selected)# 绘制ROC曲线
plt.figure(figsize=(10, 6))
plt.plot(fpr_all, tpr_all, label='All Features (AUC = %0.2f)' % roc_auc_all)
plt.plot(fpr_selected, tpr_selected, label='Selected Features (AUC = %0.2f)' % roc_auc_selected)
plt.plot([0, 1], [0, 1], 'r--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC Curve Comparison')
plt.legend(loc="lower right")
plt.show()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/1740.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Webpack-

定义 静态模块:指的是编写代码过程中的html,css,js,图片等固定内容的文件 打包:把静态模块内容压缩、整合、翻译等(前端工程化) 1)把less/sass转成css代码 2)把ES6降级…

OpenHarmony鸿蒙南向开发案例:【智能加湿器】

样例简介 智能加湿器具有实时监控其所处环境温度、湿度,并通过数字管家设置日程,自动打开加湿器控制湿度功能。显示界面使用DevEco Studio 编写的js应用,具有很好的兼容和移植特性。硬件上采用了带有HDF框架的驱动模型,通过GPIO和…

nodejs在控制台打印艺术字

const figlet require("figlet");figlet("SUCCESS", function (err, data) {if (err) {console.log("Something went wrong...");console.dir(err);return;}console.log(data);}); 参考链接: https://www.npmjs.com/package/figlet…

Android studio配置Flutter(看这一篇就够了)

Flutter 是 Google 推出并开源的移动应用开发框架,主打跨平台、高保真、高性能。开发者可以通过 Dart 语言开发 App,一套代码同时运行在 iOS 和 Android平台。 Flutter 提供了丰富的组件、接口,开发者可以很快地为 Flutter 添加 Native&#…

基于开源CrashRpt与微软开源Detours技术深度改造的异常捕获库分享

目录 1、异常捕获模块概述 2、为什么需要异常捕获模块? 3、在有些异常的场景下是没有生成dump文件的 4、开源异常捕获库CrashRpt介绍 5、对开源库CrashRpt的改进 C软件异常排查从入门到精通系列教程(专栏文章列表,欢迎订阅,持…

【图说】VMware Ubuntu22.04 详细安装教程

前言 无论是从事 Linux 开发工作,还是希望电脑运行双系统,VMware 虚拟机都是我们日常工作不可或缺的工具。本章将会重点介绍 VMware 安装流程,以及在 VMware 上如何运行、使用 Ubuntu22.04 系统。 一、VMware 下载安装 1.1 VMware 官网下载…

TensorFlow文件读取 --TFRecords文件

TFRecords文件 是一种二进制文件,能够很好的利用内存,更方便复制和移动,并且不需要单独的标签文件 使用步骤 1)获取数据 2)将数据填入到Example协议内存块(protocol buffer) 3)将协…

001-谷粒商城-微服务剖析

1、架构图 还是很强的,该有的都有 2、微服务模块 SpringCloudAlibaba组件包括 SentinelNacosRocketMQSeata 搭配SpringCloudAlibaba组件 OpenFeignGateWayRibbn gateway使用了SpringWebFlux,前几天研究到,为什么springboot不直接使用Spri…

阿里云mysql8.0 this is incompatible withsql mode=only full group by

阿里云RDS中mysql5.6升级为8.0后,出现如下问题: ### Error querying database. Cause:java.sql.SQLSyntaxErrorException: Expression #1 of SELECT listis not in GROUP BY clause and contains nonaggregatedcolumn temp.product_id which is not fun…

2024抖店新政策!抖音小店的发展趋势!新手必看!

哈喽~我是电商月月 准备开抖店的新手朋友注意了,最近抖音严查无货源违规商家,还发布了取消新手期的政策,这说明了两点 1. 生态环境正在改变 无规矩不成方圆,违规的都是故意放错类目以及,靠S单非法获得销量&#xff…

流量计如何进行校准?

什么是流量计?流量计是指示被测流量和(或)在选定的时间间隔内流体总量的仪表。简直研制,流量计是用于测量管道或明渠中流体流量的一种仪表。流量计种类繁多,又分为有差压式流量计、转子流量计、节流式流量计、细缝流量…

Linux信号(保存)

个人主页:Lei宝啊 愿所有美好如期而遇 前言 Linux信号(产生)-CSDN博客,上一个章节我们详细介绍了信号是什么,为什么要有信号,怎样产生信号,以及信号产生的几个问题,这个章节我们将介绍信号的保存。 我们…

嵌入式linux学习之arm开发板移植ssh

1.下载源码 (1)zlib 下载网址:http://www.zlib.net/fossils/ 教程中版本选择的是: zlib-1.2.11.tar.gz (2)openssl下载网址:https://www.openssl.org/source/mirror.html 教程中版本选择的是: openssl-1.1…

设计模式-迭代器模式(Iterator)

1. 概念 迭代器模式是一种行为型设计模式,它提供了一种统一的方式来访问集合对象中的元素。迭代器模式的核心思想是将遍历集合的责任封装到一个单独的对象中,这样可以避免暴露集合内部的表示方式。这种模式通常用于提供一种方法来访问一个容器对象中各个…

使用 Docker 部署 Draw.io 在线流程图系统

1)介绍 Draw.io GitHub:https://github.com/jgraph/drawio Draw.io 是一款开源的绘制流程图的工具,拥有大量免费素材和模板。程序本身支持中文在内的多国语言,创建的文档可以导出到多种网盘或本地。无论是创建流程图、组织结构图…

如何帮助中小企业建立数字化的能力?

中小企业建立数字化的能力,可以从以下几个方面着手: 1、开展数字化评估:中小企业首先需要对自己的数字化基础水平和企业经营管理现状进行评估,这包括了解企业在数字化方面的现有能力和需求,以及内外部转型资源的可用性…

[创业之路-106] :经济学十大陷阱与核心思想:系统论、社会进化论、周期论、阴阳互转论

目录 前言: 一、流动性陷阱。 二、中等收入陷阱。 三、修昔底德陷阱。 四、塔西佗陷阱。 五、金德尔伯格陷阱。 六、卢梭陷阱。 七、拉美陷阱。 八、阿喀琉斯之踵。 九、布拉德伯里悖论。 十、李约瑟之谜 结论:上述陷阱的…

AI智能客服机器人原来这么好用,企业再不使用就落伍了!

随着人工智能技术的不断成熟,AI智能客服机器人已经变得越来越智能,它们正逐渐成为企业提供客户服务的强大助手。企业若不开始部署这种高效的技术,可能会在竞争中失去先机。下面,让我们来看看AI智能客服机器人为何如此好用&#xf…

vue +antvX6 根据节点与线,动态设置节点坐标生成流程图

需求 vue2 + antvX6完成流程图,但只有节点与线,没有节点的坐标,需要根据节点的顺序显示流程图。 需求: 1.根据数据动态生成对应的节点与线; 2.节点不能重叠; 3.节点与线可拖拽; 4.因为线存在重叠可能,所有鼠标移入时线必须高亮显示(红色),鼠标移出复原; 5.要求有…

Spring-基于xml自动装配

版本 Spring Framework 6.0.9​ 1. 定义 Spring IoC容器在无需显式定义每个依赖关系的情况下,根据指定的策略,自动为指定的bean中所依赖的类类型或接口类型属性赋值。 2. 关键配置元素 BeanDefinitionParserDelegate类定义了autowire属性的属性值&…