目录
0.直击重点
1.决策树概念
2.节点特征的选择算法
3.基尼系数的计算
4.决策树的分类
5.模型的搭建
6.模型的改进和评价
ROC曲线
参数调优
GridSearch网格搜索
使用搜索结果重新建模
0.直击重点
这个文章,我们从三个维度进行说明介绍:
第一维度:介绍基本的概念,以及这个决策树的分类和相关的这个算法和基尼系数的计算方法,通过给定这个用户的数据预测这个用户是否会离职;
第二维度:增加数据量,通过语言评价(低,高,中)转换为真实的数据0,1,2,来评估这个用户离职的概率,通过分类准确率函数评估这个预测成功的样本数量和score函数预测这个准确率
第三维度:我们通过调优参数对于这个模型进行了改进,介绍了这个命中率和误判率的概念和基于这两者绘制的ROC曲线和AUC数值,有两个方法:
一个就是把这个参数全部传递进去,使用best_search属性去确定这个最优解;
另一个就是进行循环,格式化输出所有的AUC数值,进行比较得出来这个最优的解;
两个结果的方法可以进行验证,证明我们的模型的准确性~~~
1.决策树概念
决策树里面学习的这个根节点,内部节点和这个叶节点类似于我们的数据结构里面学习的这个二叉树的结构,两个都是树形结构,都有这个根节点,叶子结点以及这个内部节点的定义,从某种意义上面而言,这两个是可进行类比学习的;
2.节点特征的选择算法
节点特征的不同选择,这个节点的子节点的内容肯定就是不一样的,这个时候,如何进行这个节点的选择就很重要,针对于这个节点的额选择,有下面的几个算法,我们以第三个为例进行介绍;
ID3算法,C4.5算法,CART算法(利用基尼系数作为指标的算法);
3.基尼系数的计算
4.决策树的分类
我们下面的介绍以分类决策树为主:
- 导入对应的模块;
- 选择对应的数据,并以二维数组进行传入;
- max_depth就是这个决策树的深度,层数而已,具体的设置我们介绍优化的时候会进行说明;
- random_state就是保证这个过程的随机状态,没有其他的意义,这个1可以是其他的任何数字;
- fit函数的两个参数就是x,y变量进行模型的训练;
- predict函数的参数就是对应的自变量和因变量,并对于这个结果进行预测;
import pandas as pd
df = pd.read_csv("/Users/sample/员工离职数据样本.csv")
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 以二维结构读取"工资(k)","满意度"这两列,作为自变量x
x = df[["工资(k)","满意度"]]
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]
# TODO 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=2,random_state=1,赋值给model
model = DecisionTreeClassifier(max_depth=2,random_state=1)
# TODO 使用fit()函数训练模型
model.fit(x, y)
# TODO 使用predict()函数,传入参数[[9,6]]进行预测,并赋值给y_pre
y_pre = model.predict([[9, 6]])
# TODO 输出y_pre
print(y_pre)
5.模型的搭建
- 和上面的这个相比较,我们的这个板块的这个信息量会更大,需要涉及到一些这个数值转换的函数的使用和这个分类准确率的函数的说明;
- 首先就是这个replace函数,进行这个数值转换;
- x,y分别代表这个模型里面的自变量和因变量;
- 接着就是划分测试集和训练集,构建模型初始化并且进行训练;
- 实际上这个输出的结果是一个10*2的矩阵,每一行的两个数据,一个表示不离职,一个表示离职,我们使用索引筛选出来第二列的离职的概率的数据;0表示的就是第一列数据,1表示的就是第二列数据
import pandas as pd
df = pd.read_csv("/Users/e_information/员工信息表.csv")
# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 将"离职"列,作为因变量y
y = df["离职"]
# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)
# 使用fit()函数训练模型
model.fit(x_train, y_train)
# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_proba
y_pred_proba = model.predict_proba(x_test)
# TODO 输出y_pred_proba的第2列数据
print(y_pred_proba[:,1])
6.模型的改进和评价
我们的这个分类决策树进行预测的结果不一定完全吻合实际,这个时候就需要计算对应的命中率(我们成功预测)和误判率(我们的预测错误)的大小
ROC曲线
这个曲线是是命中率为y坐标,误判率为x坐标进行这个绘制的图像;
这个就是在原来的基础上面,进行这个命中率和误判率和阈值(阈值的作用:预测离职概率大于等于阈值,才能被判定为离职)的计算;
最后几行进行这个函数图像的绘制,使用plot函数作图;
import pandas as pd
df = pd.read_csv("/Users/e_information/员工信息表.csv")
# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]
# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)
# 使用fit()函数训练模型
model.fit(x_train, y_train)
# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_proba
y_pred_proba = model.predict_proba(x_test)
# 导入sklearn.metrics模块中的roc_curve函数
from sklearn.metrics import roc_curve
# 将y_test和预测的离职概率传入roc_curve(),将结果依次赋值给fpr, tpr, thres
fpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])
# 输出fpr, tpr, thres
print(fpr)
print(tpr)
print(thres)
# 导入matplotlib.pyplot,并使用"plt"作为该模块的简写
import matplotlib.pyplot as plt
# 使用plt.plot()函数,传入fpr为x轴的值,tpr为y轴的值,绘制折线图
plt.plot(fpr, tpr)
# 设置标题为ROC
plt.title('ROC')
# 设置x轴名称FPR
plt.xlabel('FPR')
# 设置y轴名称TPR
plt.ylabel('TPR')
# 使用plt.show()函数显示图像
plt.show()
下面这个就是去调用库里面的函数计算AUC数值衡量模型的优劣;
# 导入sklearn.metrics模块中的roc_auc_score函数
from sklearn.metrics import roc_auc_score
# 将y_test和预测的离职概率传入roc_auc_score(),将结果赋值给auc_score
auc_score = roc_auc_score(y_test, y_pred_proba[:,1])
# 输出auc_score
print(auc_score)
参数调优
就是我们使用这个默认的参数值,都可以获得想上面的这个一样比较好的预测效果(上面的这个预测结果的AUC值是0。9左右,是很好的模型),但是我们可以改变这个默认的参数,进一步去验证我们的模型的优劣性在,这个就是参数调优;
下面我们使用的是K折交叉验证进行调优;
代码的说明:
- cv=5表示进行五次交叉验证,model就是我们建立的模型,第二个和第三个参数就是我们的训练集,这个顺序不重要(第二个参数和第三个参数的顺序可以换)
- 我们打印的是每一次交叉验证的结果;
- 最后使用mean函数求得这几个验证结果的平均值;
import pandas as pd
df = pd.read_csv("/Users/e_information/员工信息表.csv")
# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]
# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)
# 导入sklearn.model_selection模块中的交叉验证的函数cross_val_score
from sklearn.model_selection import cross_val_score
# 使用cross_val_score()函数进行交叉验证,将结果赋值给auc_score
auc_score = cross_val_score(model, x_train, y_train, scoring = 'roc_auc',cv=5)
# 输出auc_score及其平均值
print(auc_score)
print(auc_score.mean())
GridSearch网格搜索
K折交叉验证,一方面能帮助我们更精确的评估模型;
另一方面,它经常和GridSearch网格搜索配合使用,来对模型进行参数调优。
接下来,我们一起来学习GridSearch网格搜索。
代码说明:
- 1,3,5,7,9就是我们选定的,可以进行这个选择的数值,从这几个里面去选最优值(深度);
- fit就是进行这个数据集合的训练;
- best_params_属性就是获得这个训练结果的最优值;
import pandas as pd
df = pd.read_csv("/Users/e_information/员工信息表.csv")
# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]
# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
model = DecisionTreeClassifier()
# 导入sklearn.model_selection模块中的GridSearchCV
from sklearn.model_selection import GridSearchCV
# 指定待调优参数max_depth的候选值范围,赋值给parameters
parameters = {'max_depth': [1 ,3, 5, 7, 9]}
# 使用GridSearchCV()函数进行参数调优,将结果赋值给grid_search
grid_search = GridSearchCV(model, parameters, scoring='roc_auc', cv=5)
# 传入训练集进行训练
grid_search.fit(x_train, y_train)
# 获取参数的最优值,并赋值给best_params
best_params = grid_search.best_params_
# 输出参数的最优值
print(best_params)
使用搜索结果重新建模
我们上面的遍历已经搜索出来这个最好的深度depth就是7,但是我们之前使用的是3,因此我们调整这个参数重新建模,我们只需要把上面这个过程的depth进行修改即可;
另外,我们可以使用循环依次计算不同深度的AUC数值,选择出来最好的也是可以的;下面这个代码就是分别带入这个树的深度1,3,5,7,9得到这个最优的AUC对应的这个depth=7,和我们上面搜索的结果是一样的,验证了模型的准确性;
import pandas as pd
df = pd.read_csv("/Users/e_information/员工信息表.csv")
# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]
# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)
# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# for循环遍历列表[1,3,5,7,9]
for i in [1,3,5,7,9]:
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=i,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=i,random_state=123)
# 使用fit()函数训练模型
model.fit(x_train, y_train)
# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_proba
y_pred_proba = model.predict_proba(x_test)
# 导入sklearn.metrics模块中的roc_auc_score函数
from sklearn.metrics import roc_auc_score
# 将y_test和预测的离职概率传入roc_curve(),将结果赋值给auc_score
auc_score = roc_auc_score(y_test, y_pred_proba[:,1])
# 格式化输出"max_depth={i}时,AUC值为{auc_score.round(4)}"
print(f"max_depth={i}时,AUC值为{auc_score.round(4)}")