【机器学习-18】特征筛选:提升模型性能的关键步骤

news2024/12/21 19:12:52

一、引言

  在机器学习领域,特征筛选是一个至关重要的预处理步骤。随着数据集的日益庞大和复杂,特征的数量往往也随之激增。然而,并非所有的特征都对模型的性能提升有所贡献,有些特征甚至可能是冗余的、噪声较大的或者与目标变量无关的。因此,进行特征筛选是机器学习工作流程中不可或缺的一环。

1、特征筛选在机器学习中的重要性

  特征筛选的重要性主要体现在以下几个方面:

  首先,特征筛选有助于减少模型的复杂度。当特征数量过多时,模型需要学习的参数也会相应增加,这可能导致模型过于复杂,容易出现过拟合现象。通过筛选掉那些不重要的特征,可以简化模型结构,降低过拟合的风险。

  其次,特征筛选可以提高模型的性能。通过选择与目标变量相关性较高的特征,模型可以更加专注于学习那些真正对预测结果有影响的因素,从而提高预测准确率。此外,减少特征数量还可以加快模型的训练速度,降低计算成本。

  最后,特征筛选有助于提升模型的解释性。在某些应用场景下,我们不仅需要模型能够做出准确的预测,还需要能够理解模型是如何做出决策的。通过筛选掉那些不重要的特征,我们可以使模型更加简洁明了,便于理解和解释。

2、特征筛选的目标

  特征筛选的主要目标包括减少过拟合、提高模型性能以及加速训练过程。

  减少过拟合是特征筛选的一个重要目标。过拟合是指模型在训练集上表现良好,但在测试集或新数据上表现较差的现象。这通常是因为模型过于复杂,学习了一些训练数据中的噪声或异常值。通过特征筛选,我们可以去除那些与噪声或异常值高度相关的特征,从而降低过拟合的风险。

  提高模型性能是特征筛选的另一个核心目标。通过选择与目标变量相关性较高的特征,我们可以使模型更加专注于学习那些真正对预测结果有影响的因素。这样不仅可以提高预测准确率,还可以使模型更加稳健和可靠。

  加速训练过程也是特征筛选的一个重要目标。当特征数量过多时,模型的训练时间可能会显著增加。通过筛选掉那些不重要的特征,我们可以减少模型的复杂度,从而降低训练时间,提高计算效率。

3、博客内容概览

  在接下来的博客内容中,我们将深入探讨特征筛选的基本概念、方法以及实践步骤。我们将介绍不同类型的特征筛选方法,包括基于统计的方法、基于模型的方法和嵌入式方法等,并详细解释每种方法的原理和适用场景。此外,我们还将分享一些在实际项目中应用特征筛选的经验和案例,帮助读者更好地理解如何在实际问题中应用特征筛选技术。最后,我们将总结特征筛选在机器学习中的关键作用,并展望未来特征筛选技术的发展方向。

  通过本博客的学习,读者将能够掌握特征筛选的基本知识和实践技能,为提升机器学习模型的性能奠定坚实的基础。

二、特征筛选的基本概念

  在机器学习的流程中,特征筛选是一个核心步骤,它帮助我们识别并保留与目标变量最相关的特征,同时剔除那些对模型性能贡献不大或者没有贡献的特征。下面我们将深入探讨特征筛选的定义、它与特征工程的关系以及不同类型的特征筛选方法。

1、特征筛选的定义

  特征筛选,顾名思义,是指从原始特征集中选择出对于模型训练和目标预测最为重要的特征子集的过程。通过特征筛选,我们可以减少数据集的维度,降低模型的复杂度,提高模型的泛化能力,并加速模型的训练过程。特征筛选的核心在于评估每个特征与目标变量之间的相关性或重要性,并基于这些评估结果来选择特征。

2、特征筛选与特征工程的关系

  特征筛选是特征工程的一个重要组成部分。特征工程是一个更广泛的概念,它涵盖了从原始数据中提取和构造有意义的特征,以及对这些特征进行转换和筛选的整个过程。特征筛选则是特征工程中的一个关键步骤,它专注于从已有的特征集中选择出最有价值的特征。

  特征工程和特征筛选是相辅相成的。特征工程通过构造新的特征或转换现有特征来丰富特征集,为模型提供更多的信息。而特征筛选则在这些特征中挑选出最重要的特征,以简化模型并提高性能。因此,在进行机器学习建模时,我们通常需要先进行特征工程,再进行特征筛选,以充分利用数据的潜力并提升模型的性能。

3、特征筛选的几种类型

  特征筛选可以根据其筛选方式的不同分为过滤式、包裹式和嵌入式三种类型。

  过滤式特征筛选:这种方法主要依赖于统计测试或其他评估指标来度量特征与目标变量之间的相关性或重要性。它独立于任何机器学习算法,仅根据特征自身的性质进行筛选。常见的过滤式特征筛选方法包括方差阈值法(移除方差较小的特征)、相关性分析(计算特征与目标变量之间的相关系数)以及互信息法等。过滤式特征筛选的优点是计算效率高,可以快速剔除大量无关特征;缺点是可能忽略特征之间的交互作用,导致一些重要特征被误删。

  包裹式特征筛选:这种方法将特征选择过程与模型训练过程相结合,通过评估不同特征子集对模型性能的影响来选择特征。常见的包裹式特征筛选方法包括递归特征消除(通过递归地考虑越来越小的特征集来选择特征)和基于模型的特征重要性评估(如使用随机森林或梯度提升机等模型来评估特征的重要性)。包裹式特征筛选的优点是能够考虑特征之间的交互作用,选择出对模型性能贡献最大的特征;缺点是计算成本较高,尤其是在特征数量较多时。

  嵌入式特征筛选:这种方法在模型训练过程中自动进行特征选择。一些机器学习算法(如决策树、随机森林和深度学习模型等)具有内置的特征重要性评估机制,可以在训练过程中自动评估每个特征的重要性。嵌入式特征筛选的优点是计算效率高且能够考虑特征之间的交互作用;缺点是需要依赖于特定的机器学习算法,并且不同算法可能给出不同的特征重要性评估结果。

  在选择特征筛选方法时,我们需要根据具体的应用场景、数据集特点和计算资源等因素进行综合考虑。不同的方法各有优缺点,我们需要根据实际需求进行权衡和选择。

三、特征筛选的基本概念及主要方法

  在机器学习中,特征筛选是一个至关重要的步骤,旨在识别并保留与目标变量最相关的特征,同时去除那些对模型性能贡献不大或者没有贡献的特征。接下来,我们将详细介绍几种常用的特征筛选方法,包括基于统计的方法、基于模型的方法和嵌入式方法。

1. 基于统计的方法

  基于统计的特征筛选方法主要通过分析特征与目标变量之间的统计关系来确定哪些特征对模型性能影响较大。

  a) 方差阈值法

  方差阈值法是一种简单而有效的特征筛选方法。它通过计算每个特征的方差,并设置一个阈值来过滤掉方差较小的特征。方差较小的特征通常意味着这些特征在数据集中的取值变化不大,对模型的贡献也较小。

  示例代码实现:

from sklearn.feature_selection import VarianceThreshold

# 假设 X 是特征数据
selector = VarianceThreshold(threshold=0.8 * (1 - 0.8))  # 假设我们想要保留80%的方差
X_new = selector.fit_transform(X)

  b) 相关性分析

  相关性分析是另一种常用的基于统计的特征筛选方法。它通过计算特征与目标变量之间的相关系数(如皮尔逊相关系数)来评估特征的重要性。相关系数较高的特征与目标变量之间的线性关系较强,对模型的贡献也较大。

  示例代码实现:

import pandas as pd
import numpy as np

# 假设 df 是包含特征和目标变量的数据框
correlation_matrix = df.corr()
target_column = 'target'  # 目标变量的列名
important_features = correlation_matrix[target_column].abs().sort_values(ascending=False)

  c) 互信息法

  互信息法是一种基于信息论的特征筛选方法。它通过计算特征与目标变量之间的互信息值来评估特征的重要性。互信息值越大,说明特征与目标变量之间的关联性越强。在Python中,可以使用minepy库来计算互信息值。

2. 基于模型的方法

  基于模型的特征筛选方法通过在模型训练过程中评估特征的重要性来选择特征。

  a) 单变量特征选择

  单变量特征选择使用统计测试来选择最佳特征。它可以看作是对每个特征进行独立评估,而不是考虑特征之间的相互作用。

  示例代码实现:

from sklearn.feature_selection import SelectKBest, chi2

# 假设 X 是特征数据,y 是目标变量
X_new = SelectKBest(chi2, k=10).fit_transform(X, y)

  b) 递归特征消除

  递归特征消除通过递归地考虑越来越小的特征集来选择特征。它使用一个模型来评估特征集,并移除最不重要的特征,直到达到所需的特征数量。

  示例代码实现:

from sklearn.datasets import make_regression
from sklearn.feature_selection import RFE
from sklearn.linear_model import LinearRegression

# 构造回归问题的数据集
X, y = make_regression(n_samples=1000, n_features=20, noise=0.1)

# 初始化线性回归模型作为评估器
estimator = LinearRegression()

# 使用递归特征消除选择特征
selector = RFE(estimator, n_features_to_select=10, step=1)
X_new = selector.fit_transform(X, y)

  c) 基于树模型的特征重要性

  基于树模型(如决策树、随机森林)的特征重要性评估是一种常用的特征筛选方法。这些模型在训练过程中会计算每个特征对模型性能的贡献程度,从而得到特征的重要性评分。

  示例代码实现(使用随机森林):

from sklearn.ensemble import RandomForestRegressor
import pandas as pd

# 初始化随机森林模型
rf = RandomForestRegressor(n_estimators=100, random_state=0)
rf.fit(X, y)

# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

3. 嵌入式方法

  嵌入式方法将特征选择过程嵌入到模型训练过程中。

  a) 集成学习中的特征重要性

  集成学习算法(如随机森林、梯度提升机等)在训练过程中会自然地评估每个特征的重要性。通过查看这些重要性得分,我们可以确定哪些特征对模型预测的贡献最大。

  在随机森林中,特征重要性通常通过计算每个特征在树节点分裂时的平均不纯度减少量来衡量。不纯度减少量越大,说明该特征对模型预测的贡献越大。

  b) 深度学习中的特征选择

  在深度学习中,特征选择通常通过神经网络的自动学习来实现。神经网络在训练过程中会自动学习哪些特征对目标预测最有帮助,并赋予它们更高的权重。因此,我们可以通过检查神经网络层的权重或激活值来确定哪些特征更重要。

  尽管深度学习模型本身并不直接提供特征重要性的明确评分,但我们可以通过一些间接方法来评估特征的重要性。例如,我们可以观察在删除某个特征后模型性能的变化,或者使用敏感度分析等方法来评估特征对模型输出的影响。

  需要注意的是,嵌入式方法的特征选择过程与模型训练紧密相关,因此所选特征的有效性高度依赖于所使用的模型和训练数据。

  总的来说,特征筛选是机器学习建模过程中不可或缺的一步。通过选择适当的特征筛选方法,我们可以减少模型的复杂度,提高模型的泛化能力,并加速模型的训练过程。在实际应用中,我们应根据具体的数据集和问题特点来选择合适的特征筛选方法,并结合其他模型优化技术来进一步提升模型的性能。

四、特征筛选的实践步骤

1、数据准备与预处理

  特征筛选的第一步是数据准备和预处理。这包括数据加载、缺失值处理、异常值处理、数据标准化或归一化等步骤。预处理的目标是将原始数据转化为适合机器学习模型处理的格式。

import pandas as pd
from sklearn.preprocessing import StandardScaler

# 加载数据
data = pd.read_csv('data.csv')

# 处理缺失值,例如用均值填充
data.fillna(data.mean(), inplace=True)

# 数据标准化
scaler = StandardScaler()
scaled_data = scaler.fit_transform(data)

2、初步特征筛选:快速排除无关特征

  初步特征筛选旨在快速排除与目标变量相关性较低或明显无关的特征。这可以通过方差阈值法、相关性分析等方法实现。

from sklearn.feature_selection import VarianceThreshold

# 使用方差阈值法筛选特征
selector = VarianceThreshold(threshold=(.8 * (1 - .8)))
X_new = selector.fit_transform(scaled_data)

3、特征重要性评估

  接下来,我们需要评估剩余特征的重要性。这可以通过基于模型的特征重要性评估方法实现,如使用随机森林或梯度提升机。

from sklearn.ensemble import RandomForestRegressor

# 使用随机森林评估特征重要性
rf = RandomForestRegressor(n_estimators=100, random_state=0)
rf.fit(X_new, y)
importances = rf.feature_importances_

# 将特征重要性转换为DataFrame,以便查看
feature_importances_df = pd.DataFrame({'feature': X_new.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

4、确定筛选阈值或策略

  在评估了特征重要性之后,我们需要确定一个筛选阈值或策略,以决定保留哪些特征。这可以基于重要性得分的百分比、累计重要性得分或其他业务逻辑来决定。

# 假设我们保留重要性排名前80%的特征
threshold_percent = 0.8
num_features_to_select = int(len(feature_importances_df) * threshold_percent)
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()

5、验证特征筛选的效果

  最后,我们需要验证特征筛选的效果。这可以通过在筛选后的特征集上重新训练模型,并比较其性能与原始特征集上的性能来实现。

# 使用筛选后的特征集重新训练模型
X_selected = X_new[selected_features]
rf_selected = RandomForestRegressor(n_estimators=100, random_state=0)
rf_selected.fit(X_selected, y)

# 评估模型性能,例如计算R^2分数
from sklearn.metrics import r2_score
y_pred_selected = rf_selected.predict(X_selected)
r2_selected = r2_score(y, y_pred_selected)
print(f"R^2 score with selected features: {r2_selected}")

  通过比较筛选前后模型的性能,我们可以评估特征筛选是否有效地提高了模型的表现。如果筛选后的特征集能够保持或提高模型性能,那么特征筛选就是成功的。

  在实际应用中,特征筛选是一个迭代的过程,可能需要根据具体情况调整筛选阈值或策略,并重新评估模型的性能。此外,还可以使用交叉验证等技术来更稳健地评估特征筛选的效果。

五、案例分析

  在这个案例分析中,我们将选择一个具体的机器学习项目,并展示特征筛选在该项目中的应用过程。我们将以信用卡欺诈检测为例,通过特征筛选来提高分类模型的性能。

1、信用卡欺诈检测项目概述

  信用卡欺诈检测是一个典型的二分类问题,目的是从交易记录中识别出欺诈行为。数据集通常包含大量的交易特征,如交易金额、交易时间、交易地点等。我们的目标是通过特征筛选选择出对欺诈检测最有用的特征,以提高模型的预测精度。

2、特征筛选应用过程

  首先,我们需要加载并预处理数据。假设我们有一个名为creditcard.csv的数据集,本文代码数据集下载链接在此次,请点击我;其中包含信用卡交易记录。

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据
data = pd.read_csv('creditcard.csv')

# 分离特征和标签
X = data.drop('Class', axis=1)
y = data['Class']

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 数据标准化
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

  数据基本列的情况如下;
在这里插入图片描述

  接下来,我们使用随机森林模型进行初步的特征重要性评估。

from sklearn.ensemble import RandomForestClassifier

# 训练随机森林模型
rf = RandomForestClassifier(n_estimators=100, random_state=42)
rf.fit(X_train_scaled, y_train)

# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X_train.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)

在这里插入图片描述

  为了可视化特征的重要性,我们可以绘制特征重要性的条形图。

import matplotlib.pyplot as plt

# 绘制特征重要性条形图
plt.figure(figsize=(10, 10))
plt.bar(feature_importances_df['feature'], feature_importances_df['importance'])
plt.xlabel('Features')
plt.ylabel('Importance')
plt.title('Feature Importances')
plt.xticks(rotation=90)
plt.tight_layout()
plt.show()

  特征重要度的条形图如下;
在这里插入图片描述

  根据特征重要性条形图,我们可以选择保留前N个最重要的特征或设定一个重要性阈值来筛选特征。

# 假设我们保留重要性排名前15的特征
num_features_to_select = 15
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()
selected_features_index = [data.columns.tolist().index(item) for item in selected_features]

  现在,我们使用筛选后的特征集重新训练模型,并评估其性能。

# 使用筛选后的特征集
X_train_selected = X_train_scaled[:,selected_features_index]
X_test_selected = X_test_scaled[:,selected_features_index]

# 重新训练随机森林模型
rf_selected = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected.fit(X_train_selected, y_train)

# 评估模型性能
from sklearn.metrics import roc_auc_score
y_pred_prob_selected = rf_selected.predict_proba(X_test_selected)[:, 1]
roc_auc_selected = roc_auc_score(y_test, y_pred_prob_selected)
print(f"ROC-AUC score with selected features: {roc_auc_selected}")

  进行特征筛选后的ROC-AUC score with selected features值为0.9477,效果还是非常不错的;
在这里插入图片描述

3、分析特征筛选对模型性能的影响
3、绘制ROC曲线并比较性能

# 使用全部特征训练随机森林模型并计算ROC-AUC
from sklearn.metrics import roc_curve, auc 

rf_all_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_all_features.fit(X_train_scaled, y_train)
y_pred_prob_all = rf_all_features.predict_proba(X_test_scaled)[:, 1]
fpr_all, tpr_all, thresholds_all = roc_curve(y_test, y_pred_prob_all)
roc_auc_all = auc(fpr_all, tpr_all)

# 使用筛选后的特征训练随机森林模型并计算ROC-AUC
rf_selected_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected_features.fit(X_train_selected, y_train)
y_pred_prob_selected = rf_selected_features.predict_proba(X_test_selected)[:, 1]
fpr_selected, tpr_selected, thresholds_selected = roc_curve(y_test, y_pred_prob_selected)
roc_auc_selected = auc(fpr_selected, tpr_selected)

# 绘制ROC曲线
plt.figure(figsize=(10, 6))
plt.plot(fpr_all, tpr_all, label='All Features (AUC = %0.2f)' % roc_auc_all)
plt.plot(fpr_selected, tpr_selected, label='Selected Features (AUC = %0.2f)' % roc_auc_selected)
plt.plot([0, 1], [0, 1], 'r--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC Curve Comparison')
plt.legend(loc="lower right")
plt.show()

在这里插入图片描述

  通过比较筛选前后模型的ROC-AUC分数,我们可以分析特征筛选对模型性能的影响。如果筛选后的特征集能够保持或提高ROC-AUC分数,那么特征筛选就是有效的,大大降低了模型的训练时间和推理时间。

  在实际项目中,我们可能还需要进行交叉验证、调整模型参数等步骤来进一步优化模型的性能。此外,还可以使用其他评估指标(如精确度、召回率、F1分数等)来全面评估模型的性能。

  需要注意的是,特征筛选虽然可以提高模型的性能,但也可能导致一些有用的信息丢失。因此,在进行特征筛选时,我们需要综合考虑模型的性能提升和信息损失之间的权衡。

4、结果分析

  通过比较特征筛选前后的ROC曲线和AUC值,我们可以得出以下结论:

  如果筛选后的特征集ROC曲线在筛选前的ROC曲线上方,并且AUC值更高,则说明特征筛选提高了模型的性能。这可能是因为筛选后的特征集更加精简且包含了重要的预测信息。
  如果两条ROC曲线接近或重叠,并且AUC值相差不大,则说明特征筛选对模型性能的影响较小。这可能是因为原始特征集中已经包含了足够的预测信息,或者筛选方法未能有效区分重要特征和冗余特征。
  如果筛选后的特征集ROC曲线在筛选前的ROC曲线下方,并且AUC值更低,则说明特征筛选降低了模型的性能。这可能是因为筛选过程中错误地排除了重要的特征,或者筛选方法不适用于该数据集。
  在本案例中,我们假设筛选后的特征集ROC曲线在筛选前的ROC曲线上方,并且AUC值更高。这表明通过特征筛选,我们成功地提高了信用卡欺诈检测模型的性能。

5、总结

  特征筛选是机器学习项目中提高模型性能的关键步骤之一。通过比较特征筛选前后的ROC曲线和AUC值,我们可以评估特征筛选对模型性能的影响。在实际应用中,我们应该根据具体的数据集和项目需求选择合适的特征筛选方法,并进行充分的实验验证。

六、结论与展望

  特征筛选作为机器学习流程中的关键步骤,对于提升模型性能具有不可忽视的作用。通过有效地筛选特征,我们能够降低模型的复杂度,提高预测准确性,并增强模型的可解释性。

  展望未来,特征筛选技术的发展将更加注重自动化和智能化。随着深度学习和强化学习等技术的不断进步,我们可以期待更加高效和精确的特征选择方法。此外,随着大数据和云计算的普及,实时特征筛选和动态特征选择也将成为未来研究的重点。

  在未来的机器学习应用中,特征筛选将继续发挥重要作用,帮助我们从海量数据中提取出有价值的信息,构建出更加高效和准确的预测模型。

七、参考文献

Pedregosa, F., Varoquaux, G., Gramfort, A., Michel, V., Thirion, B., Grisel, O., … & Duchesnay, E. (2011). Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, 12, 2825-2830.

Guyon, I., & Elisseeff, A. (2003). An introduction to variable and feature selection. Journal of machine learning research, 3(Mar), 1157-11

附录:本案例完整代码如下

import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import roc_curve, auc 

# 加载数据
data = pd.read_csv('creditcard.csv')

# 分离特征和标签
X = data.drop('Class', axis=1)
y = data['Class']

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

# 数据标准化
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

from sklearn.ensemble import RandomForestClassifier

# 训练随机森林模型
rf = RandomForestClassifier(n_estimators=100, random_state=42)
rf.fit(X_train_scaled, y_train)

# 获取特征重要性
importances = rf.feature_importances_
feature_importances_df = pd.DataFrame({'feature': X_train.columns, 'importance': importances})
feature_importances_df = feature_importances_df.sort_values(by='importance', ascending=False)


import matplotlib.pyplot as plt

# 绘制特征重要性条形图
plt.figure(figsize=(10, 10))
plt.bar(feature_importances_df['feature'], feature_importances_df['importance'])
plt.xlabel('Features')
plt.ylabel('Importance')
plt.title('Feature Importances')
plt.xticks(rotation=90)
plt.tight_layout()
plt.show()

# 假设我们保留重要性排名前15的特征
num_features_to_select = 15
selected_features = feature_importances_df.head(num_features_to_select)['feature'].tolist()
selected_features_index = [data.columns.tolist().index(item) for item in selected_features]

# 使用筛选后的特征集
X_train_selected = X_train_scaled[:,selected_features_index]
X_test_selected = X_test_scaled[:,selected_features_index]

# 重新训练随机森林模型
rf_selected = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected.fit(X_train_selected, y_train)

# 评估模型性能
from sklearn.metrics import roc_auc_score
y_pred_prob_selected = rf_selected.predict_proba(X_test_selected)[:, 1]
roc_auc_selected = roc_auc_score(y_test, y_pred_prob_selected)
print(f"ROC-AUC score with selected features: {roc_auc_selected}")

# 使用全部特征训练随机森林模型并计算ROC-AUC
rf_all_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_all_features.fit(X_train_scaled, y_train)
y_pred_prob_all = rf_all_features.predict_proba(X_test_scaled)[:, 1]
fpr_all, tpr_all, thresholds_all = roc_curve(y_test, y_pred_prob_all)
roc_auc_all = auc(fpr_all, tpr_all)

# 使用筛选后的特征训练随机森林模型并计算ROC-AUC
rf_selected_features = RandomForestClassifier(n_estimators=100, random_state=42)
rf_selected_features.fit(X_train_selected, y_train)
y_pred_prob_selected = rf_selected_features.predict_proba(X_test_selected)[:, 1]
fpr_selected, tpr_selected, thresholds_selected = roc_curve(y_test, y_pred_prob_selected)
roc_auc_selected = auc(fpr_selected, tpr_selected)

# 绘制ROC曲线
plt.figure(figsize=(10, 6))
plt.plot(fpr_all, tpr_all, label='All Features (AUC = %0.2f)' % roc_auc_all)
plt.plot(fpr_selected, tpr_selected, label='Selected Features (AUC = %0.2f)' % roc_auc_selected)
plt.plot([0, 1], [0, 1], 'r--')
plt.xlim([0.0, 1.0])
plt.ylim([0.0, 1.05])
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC Curve Comparison')
plt.legend(loc="lower right")
plt.show()

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1625299.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Java openrasp记录-01

例子1 https://github.com/anbai-inc/javaweb-expression 一个hook ognl、spel、MVEL表达式注入的例子 用的是asm5进行字节码修改 采用premain进行插桩,重写transform方法 expClassList是要hook的类,这里定义在MethodHookDesc 这里判断hook点通过类名…

ClickHouse 如何实现数据一致性

文章目录 ReplacingMegreTree 引擎数据一致性实现方式1.ReplacingMegreTree 引擎2.ReplacingMegreTree 引擎 手动合并3.ReplacingMegreTree 引擎 FINAL 查询4.ReplacingMegreTree 引擎 标记 GroupBy5.允许偏差 前言:在大数据中,基本上所有组件都要求…

【Python-Spark(大规模数据)】

Python-Spark(大规模数据) ■ Spark■ PySparl编程模型■ 基础准备■ 数据输入■ RDD的map成员方法的使用■ RDD的flatMap成员方法的使用■ RDD的reduceByKey成员方法的使用■ 单词计数统计■ RDD的filter成员方法的使用■ RDD的distinct成员方法的使用■…

【分布式通信】NPKit,NCCL的Profiling工具

NPKit介绍 NPKit (Networking Profiling Kit) is a profiling framework designed for popular collective communication libraries (CCLs), including Microsoft MSCCL, NVIDIA NCCL and AMD RCCL. It enables users to insert customized profiling events into different C…

【JavaScriptThreejs】判断路径在二维平面上投影的方向顺逆时针

原理分析 可以将路径每个连续的两点向量叉乘相加,根据正负性判断路径顺逆时针性 当我们计算两个向量的叉积时,结果是一个新的向量,其方向垂直于这两个向量所在的平面,并且其大小与这两个向量构成的平行四边形的面积成正比。这个新…

Android 组件提供的状态保存(saveInstanceState)与恢复(restoreInstanceState)

在Android的组件Activity中,有这样一对方法: onSaveInstanceeState 和 onRestoreInstanceState 这两对方法,可以让我在Activiy被异常销毁时,保存状态;以及在Activity重建时,恢复状态。 比如:当我们在输入…

MATLAB 2024a软件下载安装教程

1-首先下载Matlab,以下迅雷云链接,里面有全版本的matlab,根据自己的需要下载即可,建议下载最新版的,功能会更多,当然内存也会更大。 迅雷云盘迅雷云盘https://pan.xunlei.com/s/VNgH_6VFav8Kas-tRfxAb3XOA…

Linux I2C(二) - I2C软硬件架构

1,I2C的总线拓扑 2,I2C S/W topology linux kernel I2C framework使用如下的软件拓扑抽象I2C硬件(我们可以一起领会一下其中的“设备模型”思想): 1)platform bus(/sys/bus/platform&#xff0…

Oracle导出导入dmp等文件类型的多表数据的常用方法、遇见的常见问题和解决办法(exp无效sql???)

使用PLSQL执行导出表数据的时候有两种方法 1、使用Oracle命令【imp--exp】【impdp--expdp】 但是如果你的本机没有安装有Oracle数据库,使用的instant client远程连接服务器上的Oracle数据库时候,你没有Oracle数据库带有的exp.exe、imp.exe等扩展文件&a…

如何高效跟进项目进度?试试禅道几个功能

禅道提供了一系列功能和工具,可实现项目进度的有效管理和跟进,极大提升项目管理效率。禅道中的项目进度来源于迭代进度,迭代的进度又来源于任务的消耗和剩余工时,可通过以下功能有效跟进项目进展。 一、燃尽图 在禅道里&#xf…

机器学习day1

一、人工智能三大概念 人工智能三大概念 人工智能(AI)、机器学习(ML)和深度学习(DL) 人工智能:人工智能是研究计算代理的合成和分析的领域。人工智能是使用计算机来模拟,而不是人类…

【办公类-22-14】周计划系列(5-5)“周计划-05 周计划表格内教案部分“节日”清空改成“节日“” (2024年调整版本)Win32

背景需求: 本学期19周,用了近10周的时间,终于把周计划教案部分的内容补全了(把所有教案、反思的文字都撑满一个单元格), 一、原始教案 二、新模板内的教案 三、手动添加文字后的样式(修改教案…

庐山研习班上介绍的25个LINUX工具

从2013年的第一届算起,庐山研习班走过十余个年头,办了十几次了。但每一次,都有很多不一样。即使是相同的主题,也有很大差异。 今年春季的庐山研习班是在上个周末。周四晚上我和大部分同学都到了五老峰脚下的训练基地。 除了周六下…

【C++ STL序列容器】list 双向链表

文章目录 【 1. 基本原理 】【 2. list 的创建 】2.1 创建1个空的 list2.2 创建一个包含 n 个元素的 list(默认值)2.3 创建一个包含 n 个元素的 list(赋初值)2.4 通过1个 list 初始化另一个 list2.5 拷贝其他类型容器的指定元素创…

HNCTF 2022 week1 题解

自由才是生活主旋律。 [HNCTF 2022 Week1] Interesting_include <?php //WEB手要懂得搜索 //flag in ./flag.phpif(isset($_GET[filter])){$file $_GET[filter];if(!preg_match("/flag/i", $file)){die("error");}include($file); }else{highlight_…

CentOS7安装并配置Yearning并实现无公网IP远程SQL审核与数据查询

目录 ​编辑 前言 1. Linux 部署Yearning 2. 本地访问Yearning 3. Linux 安装cpolar 4. 配置Yearning公网访问地址 5. 公网远程访问Yearning管理界面 6. 固定Yearning公网地址 结语 前言 作者简介&#xff1a; 懒大王敲代码&#xff0c;计算机专业应届生 今天给大家聊聊…

Docker 的数据管理 端口映射 容器互联 镜像的创建

目录 概念 概念 管理 Docker 容器中数据主要有两种方式&#xff1a;数据卷&#xff08;Data Volumes&#xff09;和数据卷容器&#xff08;DataVolumes Containers&#xff09;。总结&#xff1a;因为容器数据是临时保存的为了安全&#xff0c;就要让数据保持持久化。 1&#…

qt QTreeWidget 学习

树形控件的节点可以有多层、多个子节点&#xff0c; 如果将子节点全部展开&#xff0c;那么每一行都是一个数据条目。QTreeWidgetItem 比较特殊&#xff0c;一个条目内部可以有多列数据信息&#xff0c;相当于表格控件一整行的表格单元集成为一个条目。 默认情况下&#xff0c;…

Methoxy-PEG-PLGA,mPEG-PLGA是一种可生物降解的两亲性嵌段共聚物

【试剂详情】 英文名称 mPEG-PLGA&#xff0c;Methoxy-PEG-Poly(lactide-co-glycolide)&#xff0c;Methoxy-PEG-PLGA&#xff0c; mPEG-Poly(lactide-co-glycolide) 中文名称 聚乙二醇单甲醚聚乳酸&#xff0c;乙醇酸两嵌段共聚物 外观性状 由分子量决定&#xff0c;液体…

调试记录 Flash 芯片 GD25LQ128ESIG 的程序烧录问题

1. 烧录工具 工具型号&#xff1a; VS4000P 2. 烧录问题 1. 烧录器选择烧录型号过程中没有看见 Flash 芯片 GD25LQ128ESIG 的型号。其中有GD25Q128E &#xff0c;但是三个选项的封装不对。 3. 解决过程 1. 尝试别的类型的芯片型号烧录。 A.GD25LQ80E(SOP8_200) B.GD25LQ64E(SOP…