说明:这是一个机器学习实战项目(附带数据+代码+文档+视频讲解),如需数据+代码+文档+视频讲解可以直接到文章最后获取。
1.项目背景
可以使用Lasso回归进行特征选择,尽管它本质上是一个用于回归问题的技术,但通过一些调整,也可以应用于分类问题,尤其是二分类问题。Lasso(Least Absolute Shrinkage and Selection Operator)通过在损失函数中加入L1正则化项来促使模型的系数稀疏化,从而实现特征选择。对于分类任务,通常会结合逻辑回归(Logistic Regression)的思想,这被称为Lasso Logistic Regression或者Logistic Lasso。
本项目通过逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
2.数据获取
本次建模数据来源于网络(本项目撰写人整理而成),数据项统计如下:
编号 | 变量名称 | 描述 |
1 | x1 | |
2 | x2 | |
3 | x3 | |
4 | x4 | |
5 | x5 | |
6 | x6 | |
7 | x7 | |
8 | x8 | |
9 | x9 | |
10 | x10 | |
11 | y | 因变量 |
数据详情如下(部分展示):
3.数据预处理
3.1 用Pandas工具查看数据
使用Pandas工具的head()方法查看前五行数据:
关键代码:
3.2数据缺失查看
使用Pandas工具的info()方法查看数据信息:
从上图可以看到,总共有11个变量,数据中无缺失值,共2000条数据。
关键代码:
3.3数据描述性统计
通过Pandas工具的describe()方法来查看数据的平均值、标准差、最小值、分位数、最大值。
关键代码如下:
4.探索性数据分析
4.1 y变量柱状图
用Matplotlib工具的plot()方法绘制柱状图:
4.2 y=1样本x1变量分布直方图
用Matplotlib工具的hist()方法绘制直方图:
4.3 相关性分析
从上图中可以看到,数值越大相关性越强,正值是正相关、负值是负相关。
5.特征工程
5.1 建立特征数据和标签数据
关键代码如下:
5.2 数据集拆分
通过train_test_split()方法按照80%训练集、20%测试集进行划分,关键代码如下:
5.3 数据的归一化
关键代码如下:
6.构建特征选择模型
主要使用逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择。
6.1 构建模型
编号 | 模型名称 | 参数 |
1 | 特征选择模型 | penalty='l1' |
2 | solver='liblinear' | |
3 | C=0.1 |
7.特征选择
7.1特征系数结果
模型名称 | 特征名称 | 系数值 |
特征选择模型 | x1 | 0 |
x2 | 9.60022787 | |
x3 | -1.005445 | |
x4 | 0 | |
x5 | 0 | |
x6 | 0 | |
x7 | 0 | |
x8 | 0 | |
x9 | 0 | |
x10 | 0 |
7.2特征选择结果
结果展示如下:
8.结论与展望
综上所述,本文采用了逻辑回归的L1正则化(Lasso Logistic Regression)进行分类数据的特征选择,最终证明了我们提出的模型效果良好。此模型可用于日常产品的建设。
# 本次机器学习项目实战所需的资料,项目资源如下:
# 项目说明:
# 获取方式一:
# 项目实战合集导航:
https://docs.qq.com/sheet/DTVd0Y2NNQUlWcmd6?tab=BB08J2
# 获取方式二:
链接:https://pan.baidu.com/s/1P97Kki89nKLhHqQAucvEnA
提取码:qq3c