机器学习基础08-模型选择02-分类算法矩阵(基于Pima 数据集)

news2024/9/30 15:34:02

算法评估矩阵(Algorithm Evaluation Metrics)用于评估机器学习算法在特定任务上的性能。不同的任务可能会使用不同的评估矩阵,因为每个任务的优劣衡量标准都不同。

分类算法矩阵

分类问题或许是最常见的机器学习问题,并且有多种评估矩阵来评估
分类算法。以下几种用来评估分类算法的评估矩阵:
· 分类准确度。
· 对数损失函数(Logloss)。
· AUC图。
· 混淆矩阵。
· 分类报告(Classification Report)。

分类准确度

分类准确度就是算法自动分类正确的样本数 除以 所有的样本数得出的结果。

分类准确度 = 算法自动分类正确的样本数 / 所有的样本数

通常,准确度越高,分类器越好。这是分类算法中最常见,也最易被误用的评估参数。准确度确实是一个很好、很直观的评价指标,但是有时候准确度高并不代表算法就一定好。

比如对某个地区某天地震的预测,
假设有一堆的特征作为地震分类的属性,类别却只有两个(0:不发生地震,1:发生地震)。一个不加思考的分类器对每一个测试用例都将类别划分为 0,那它就可能达到 99%的准确度,但真的地震时,这个分类器却毫无察觉,这个分类器造成的损失是巨大的。为什么拥有 99%的准确度的分类器却不是我们想要的,因为数据分布不均衡,类别1的数据太少,完全错分类别1依然可以达到很高的准确度,却忽视了需要关注的事实和现象。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold)
# 记录方法结束时间
print("算法评估结果准确度:%.3f (%.3f)" % (result.mean(), result.std()))


运行结果:

算法评估结果准确度:0.782 (0.052)

对数损失函数

在逻辑回归的推导中,它假设样本服从伯努利分布(0~1分布),然后求得满足该分布的似然函数,再取对数、求极值等。而逻辑回归并没有求似然函数的极值,而是把极大化当作一种思想,进而推导出它的经验风险函数为:最小化负的似然函数

[max F(y,f(x))→min-F(y,f(x))]。

从损失函数的视角来看,它就成了对数(Log)损失函数了。对数损失函数越小,模型就越好,而且使损失函数尽量是一个凸函数,便于收敛计算。

示例代码:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

scoring = 'neg_log_loss'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("neg_log_loss:%.3f (%.3f)" % (result.mean(), result.std()))



运行结果:

neg_log_loss:-0.477 (0.065)

AUC图

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate, TPR,也称为召回率)与假阳性率(False Positive Rate, FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

ROC和AUC是评价分类器的指标。ROC是受试者工作特征曲线 (Receiver Operating Characteristic Curve)的简写,又称为感受性曲线(Sensitivity Curve)。

得此名的原因在于曲线上各点反映相同的感受性,它们都是对同一信号刺激的反应,只不过是在几种不同的判定标准下所得的结果而已。ROC是反映敏感性和特异性连续变量的综合指标,用构图法揭示敏感性和特异性的相互关系,通过将连续变量设定出多个不同的临界值计算出一系列敏感性和特异性,再以敏感性为纵坐标、(1-特异性)为横坐标绘制成曲线。

AUC是ROC曲线下的面积(Area Under ROC Curve)的简称,顾名思义,AUC的值就是处于ROC
Curve下方的那部分面积的大 小。

通常,AUC的值介于0.5到1.0之间,AUC的值越大,诊断准确性越
。在ROC曲线上,靠近坐标图左上方的点为敏感性和特异性均较高的临界值。

ROC AUC是用于评估二分类算法性能的指标。ROC曲线是以不同的分类阈值为基础绘制了真阳性率(True Positive Rate,
TPR,也称为召回率)与假阳性率(False Positive Rate,
FPR)之间的关系曲线。AUC是ROC曲线下的面积,取值范围在0到1之间。AUC越大表示模型的性能越好,AUC等于1时表示模型完美分类,AUC等于0.5时表示模型的分类能力与随机分类相当。

为了解释ROC的概念,让我们考虑一个二分类问题,即将实例分成正类(Positive)或负类(Negative)。对一个二分类问题来说,会出现四种情况:

  • 如果一个实例是正类并且也被预测成正类,即为真正类(True
    Positive);
  • 如果实例是负类却被预测成正类,称之为假正类(False
    Positive)。
  • 如果实例是负类也被预测成负类,称之为真负类(True Negative);
  • 如果实例为正类却被预测成负类,则为假负类(FalseNegative)。

列联表或混淆矩阵如下表所示,“1”代表正类,“0”代表负类。

在这里插入图片描述
基于该列联表,定义敏感性指标为:sensitivity=TP/(TP+FN)。敏感性指标又称为真正类率(True Positive Rate,TPR),计算的是分类器所识别出的正实例占所有正实例的比例。

另外,定义负正类率(False Positive Rate,FPR)的计算公式为:FPR=FP/(FP+TN),负正类率计算的是分类器错认为正类的负实例占所有负实例的比例。

定义特异性指标为:Specificity=TN/(FP+TN)=1-FPR。特异性指标又称为真负类率(True Negative Rate,TNR)。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression

from sklearn.model_selection import cross_val_score, ShuffleSplit

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集
n_splits = 10

# 随机数种子
seed = 7
# K折交叉验证,将数据分成10份,9份训练,1份测试,重复10次,取平均值,得到最终模型,评估模型
kfold = ShuffleSplit(n_splits=n_splits, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

scoring = 'roc_auc'
# 训练模型
result = cross_val_score(model, X, Y, cv=kfold, scoring=scoring)
# 记录方法结束时间
print("roc_auc:%.3f (%.3f)" % (result.mean(), result.std()))



运行结果:

roc_auc:0.839 (0.054)

ROC AUC(Receiver Operating Characteristic Area Under the Curve)的评估结果为0.839,其中括号内的0.054表示标准差。

在给出的结果中,ROC AUC为0.839,说明模型的分类性能较好,它相对于随机分类有明显的优势。标准差为0.054表示这个评估结果在不同数据集或实验中可能会有一定的波动,但整体上来看,该模型的性能是比较稳定的。

值得注意的是,ROC AUC只适用于二分类问题,对于多类别分类问题,可以考虑使用一些其他的指标,如平均精确率均值(Mean Average Precision, mAP)等。

混淆矩阵

混淆矩阵(Cnfusion Matrix)主要用于比较分类结果和实际测得值,可以把分类结果的精度显示在一个混淆矩阵里面。混淆矩阵是可视化工具,特别适用于监督学习,在无监督学习时一般叫作匹配矩阵。混淆矩阵的每列代表预测类别,每列的总数表示预测为该类别的数据的数目;每行代表数据的真实归属类别,每行的数据总数表示该类别的数据的数目。每列中的数值表示真实数据被预测为该类的数目。

如下表所示,有150个样本数据,这些数据分成 3 类,每类 50 个。
分类结束后得到的混淆矩阵,每行之和为50,表示50个样本

第一行说明类1的50个样本有43个分类正确,5个错分为类2,2个错分为类3。

在这里插入图片描述
代码示例:

  1. 使用Pandas库读取糖尿病数据集,并将数据转换为数组形式。
  2. 将特征和标签分别赋值给X和Y。
  3. 使用train_test_split函数将数据集分割为训练集和测试集,其中测试集占33%。
  4. 创建一个逻辑回归模型,并使用训练集拟合模型。
  5. 使用模型对测试集进行预测,并计算混淆矩阵。
  6. 输出混淆矩阵的DataFrame形式。

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import confusion_matrix

from sklearn.model_selection import cross_val_score, ShuffleSplit, train_test_split

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集

test_size = 0.33
# 随机数种子
seed = 7
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

# 训练模型
model.fit(X_train, Y_train)

# 评估模型
predictions = model.predict(X_test)

# 混淆矩阵
matrix = confusion_matrix(Y_test, predictions)

classes = ['0', '1']

# 创建混淆矩阵
dataframe = pd.DataFrame(matrix, index=classes, columns=classes)
# 绘制热力图
print(dataframe)

运行结果:

     0   1
0  142  20
1   34  58

根据输出的混淆矩阵,可以解释如下:

  1. 阴性(类别0)的样本中,模型正确地预测了142个样本,但错误地将20个样本预测为了阳性(假阳性)。
  2. 阳性(类别1)的样本中,模型正确地预测了58个样本,但错误地将34个样本预测为了阴性(假阴性)。

通过混淆矩阵,我们可以计算出一系列分类算法的评估指标:

精确率(Precision):对于预测为阳性(类别1)的样本中,有58个样本是真正的阳性,所以Precision为58 / (58 + 20) ≈ 0.7436。

召回率(Recall):对于实际为阳性(类别1)的样本中,有58个样本被正确地预测为阳性,所以Recall为58 / (58 + 34) ≈ 0.6304。

F1分数(F1-Score):综合考虑Precision和Recall的调和平均值,F1-Score = 2 * (Precision * Recall) / (Precision + Recall) ≈ 0.6832。

准确率(Accuracy):计算预测正确的样本数占总样本数的比例,即 (142 + 58) / (142 + 20 + 34 + 58) ≈ 0.7765。

这些评估指标能够帮助我们更全面地了解分类算法在这个特定任务上的性能。根据实际需求,可以选择合适的评估指标来衡量模型的性能。

分类报告

分类报告(classification_report)是一个包含精确率、召回率、F1分数等指标的报告,用于评估分类模型的性能。通常,它会显示每个类别的指标,并在最后提供一个加权平均值或宏平均值。

在 scikit-learn 中提供了一个非常方便的工具,可以给出对分类问题的评估报告,Classification_report()方法能够给出精确率(precision)、召回率(recall)、F1值(F1-score)和样本数目(support)。在这里简单地介绍一下三个指标数据:精确率、召回率、F1值。

在介绍这三个指标数据之前,我们先定义TP、FN、FP、TN四种分类
情况,我们借助下表来说明。

在这里插入图片描述

精确率的 公式P=TP/(TP+FP),计算的是所有被检索到的项目中应该被检索到的项目占的比例。

召回率的公式R=TP/(TP+FN),计算的是所有检索到的项目占所有应该检索到的项目的比例。

F1值就是精确率和召回率的调和均值,也就是2F1=P+R

代码如下:


import pandas as pd
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import classification_report

from sklearn.model_selection import train_test_split

#数据预处理
path = 'D:\down\\archive\\diabetes.csv'
data = pd.read_csv(path)


#将数据转成数组
array = data.values
#分割数据,去掉最后一个标签
X = array[:, 0:8]

Y = array[:, 8]
# 分割数据集

test_size = 0.33
# 随机数种子
seed = 4
# 分割数据集
X_train, X_test, Y_train, Y_test = train_test_split(X, Y, test_size=test_size, random_state=seed)
# 逻辑回归,使用lbfgs求解器,最大迭代次数1000,默认是100,如果模型没有收敛,可以适当增大
model = LogisticRegression(solver='lbfgs', max_iter=1000)

# 训练模型
model.fit(X_train, Y_train)

# 评估模型
predictions = model.predict(X_test)

report = classification_report(Y_test, predictions)

print(report)


运行结果:

              precision    recall  f1-score   support

         0.0       0.84      0.87      0.86       171
         1.0       0.71      0.66      0.69        83

    accuracy                           0.80       254
   macro avg       0.78      0.77      0.77       254
weighted avg       0.80      0.80      0.80       254

根据给出的分类报告,逻辑回归模型在测试集上的性能如下:

  • 对于类别0(阴性):精确率(Precision)为0.84,召回率(Recall)为0.87,F1分数为0.86。说明模型在预测阴性样本时,有较高的精确性和召回率,F1分数也较高。

  • 对于类别1(阳性):精确率为0.71,召回率为0.66,F1分数为0.69。说明模型在预测阳性样本时,精确率和召回率相对较低,F1分数也较低。

  • accuracy(准确率)为0.80,表示模型在测试集上的整体准确率为80%。

  • macro avg(宏平均值)是所有类别的平均值,精确率为0.78,召回率为0.77,F1分数为0.77。

  • weighted avg(加权平均值)是根据各类别样本数量加权的平均值,精确率为0.80,召回率为0.80,F1分数为0.80。

综合来看,该逻辑回归模型在阴性样本上表现较好,但在阳性样本上表现相对较差。整体上,模型的准确率为80%,在不同类别上的F1分数在0.69到0.86之间。根据具体任务的要求,可以根据分类报告中的指标来调整模型或优化特征,以改善模型的性能。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/837069.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【Linux】节点之间配置免密登录

文章目录 1、实现2、原理3、SSH的理解 1、实现 先写实现,解决问题后有兴趣的自己看后面的原理。 以实现节点A(主)免密登录到节点B(从)为例:(注意例子里节点B被登录) 步骤一&#xf…

JavaScript 中的隐式类型转换

一、什么情况会发生隐式类型转换? 1、加号() 号比较特殊,既可以当做算数运算符做加法,又可以当做字符串连接符 ① 算数运算符 除了 string 类型以外的原始数据类型进行加法运算时,非数字类型会转换为数字…

uniapp对uni.request()的封装以及使用

前言: 在uniapp中向服务端发送请求较为容易,使用 uni.request() 即可。 uni.request({url: https://www.example.com/request, //仅为示例,并非真实接口地址。data: {text: uni.request},header: {custom-header: hello //自定义请求头信息…

weui cells 如何去掉边框

问题:weui cells 如何去掉边框 解决: cells通过before,after实现边框,不显示的话,在引用的页面wxss加上: .weui-cells:before,.weui-cells:after {border: none; }

2023牛客暑期多校训练营6 A-Tree (kruskal重构树))

文章目录 题目大意题解参考代码 题目大意 ( 0 ≤ a i ≤ 1 ) , ( 1 ≤ c o s t i ≤ 1 0 9 ) (0\leq a_i\leq 1),(1 \leq cost_i\leq 10^9) (0≤ai​≤1),(1≤costi​≤109) 题解 提供一种新的算法,kruskal重构树。 该算法重新构树,按边权排序每一条边…

学会这样提问,你就超过了82.7%的老网工

下午好,我的网工朋友 很多朋友会说,我怎么问问题,在群里,或者后台,还有给老杨总发消息,都没收到比较详细的回复?尤其是问技术问题的时候。 除了我们回复消息的时间和精力的确比较有限之外&…

JMeter压力测试记录

最近在学习redis解决高并发下导致数据库数据不准确的问题,使用到了一些工具,包括Jmeter,Redis-desktop-manager.。Jmeter用于模拟高并发情景,Redis-desktop-manager是redis数据库的GUI界面。 一、单元测试生成测试数据 1)插入20…

python可以做哪些小工具,python可以做什么小游戏

大家好,小编来为大家解答以下问题,python可以做什么好玩的,python可以做什么小游戏,今天让我们一起来看看吧! 最近有几个友友问我说有没有比较好玩的Python小项目来练手,于是我找了几个比较有意思的给他们&…

进程间的六种通信方式以及优缺点总结

参考博客链接:https://blog.csdn.net/qq_34827674/article/details/107678226 前提知识:每个进程都有自己的用户空间,而内核空间是每个进程共享的。因此进程之间想要进行通信,就需要通过内核来实现。 1、管道 管道是最简单&…

Springboot部署ELK实战

Springboot部署ELK实战 1、部署docker、docker-compose环境安装docker安装docker-compose 2、搭建elk1、构建目录&&配置文件1、docker-compose.yml 文档2、Kibana.yml3、log-config.conf 2、添加es分词器插件3、启动 3、Springboot项目引入es、logStash配置1、引入依赖…

ORALCE RAC总结

一:ORACLE RAC集群安装 ASM磁盘管理 二:ORACLE RAC集群报错排查总结 三:ORACLE RAC集群报错排查总结 3.1 ORA-29760: instance_number parameter not specified RAC1节点,RAC2节点 解决 export ORACLE_SID=a81(数据库实例名) 3.2 参考资料 ORACLE RAC集群 安装参…

深度学习(34)—— StarGAN(2)

深度学习(34)—— StarGAN(2) 完整项目在这里:欢迎造访 文章目录 深度学习(34)—— StarGAN(2)1. build model(1)generator(2&#…

人有教养的十大特征!

教养,就是一个人的品行。 什么是教养? 教养,是一种尊重,也是将心比心的善意;教养,是一种气量,也是宽以待人的度量;教养,是一种品德,也是崇高的人格魅力。 …

如何入门/转行网络安全,实现自己的“黑客梦”

1.指出一些自学的误区 2.提供客观可行的学习表 3.推荐我认为适合小白学习的资源.大佬绕道哈! 第一阶段:基础操作入门 入门的第一步是学习一些当下主流的安全工具课程并配套基础原理的书籍,一般来说这个过程在1个月左右比较合适。 第二阶…

java如何将tif文件拆分为多个jpg文件,附jar包下载地址

1.在build.gradle中添加依赖: implementation group: javax.media, name: jai_codec, version: 1.1.3implementation group: com.sun, name: jai_core, version: 1.1.3implementation group: javax.media, name: jai_imageio, version: 1.1implementation xx.com.su…

OpenLayers入门,OpenLayers解析通过fetch请求的GeoJson格式数据,并叠加要素文字标注,以行政区划边界为例

专栏目录: OpenLayers入门教程汇总目录 前言 本章讲解如何使用OpenLayers通过fetch请求geojson数据,然后通过OpenLayers解析为Feature要素叠加到图层上,并且通过动态设置标注方式显示要素属性为文字标注。 本章还是以行政区划边界为例,这个示例在开发中比较常用,建议收藏…

51单片机(普中HC6800-EM3 V3.0)实验例程软件分析 实验四 蜂鸣器

目录 前言 一、原理图及知识点介绍 1.1、蜂鸣器原理图: 二、代码分析 前言 第一个实验:51单片机(普中HC6800-EM3 V3.0)实验例程软件分析 实验一 点亮第一个LED_ManGo CHEN的博客-CSDN博客 第二个实验:51单片机(普中HC6800-EM…

【树】 二叉树 堆与堆排序 平衡(AVL)树 红黑(RB)树

目录 1 树1.1 认识树1.2 树的相关概念1.3 树的表示孩子兄弟表示法 2 二叉树2.1 概念2. 2 特殊二叉树2.3 二叉树的性质2.4 二叉树的存储结构 3 堆 — 完全二叉树的顺序结构实现3.1 堆的概念3.2 核心代码3.3 堆应用1 堆排序2 TOP-K问题 4 二叉树的链式存储4.1 二叉链结构与初始化…

大道至简,炎凰数据要做极致好用的国产大数据分析基础软件|爱分析调研

自2000年代初大数据技术诞生以来,为了应对不断丰富的应用场景、日益复杂的数据类型,以及逐渐膨胀的数据规模,大数据业内逐渐发展出了多种技术路线。 到今天,大数据产品和技术已处于百花齐放的状态,国内市场近年来也因…

.Net6 Web Core API --- AOP -- log4net 封装 -- MySQL -- txt

目录 一、引入 NuGet 包 二、配置log4net.config 三、编写Log4net封装类 四、编写日志记录类 五、AOP -- 拦截器 -- 封装 六、案例编写 七、结果展示 一、引入 NuGet 包 log4net Microsoft.Extensions.Logging.Log4Net.AspNetCore MySql.Data ---- MySQL…