【Python机器学习】模型评估与改进——带交叉验证的网格搜索

news2024/12/26 9:29:36

虽然将数据划分为训练集、验证集、测试集的方法是可行的,也相对常用,但这种方法对数据的划分相当敏感,为了得到对泛化性能的更好估计,我们可以使用交叉验证来评估每种参数组合的性能,而不是仅将数据单次划分为训练集与验证集。代码表示如下:

from sklearn.svm import SVC
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.model_selection import cross_val_score
import numpy as np

iris=load_iris()

X_trainval,X_test,y_trainval,y_test=train_test_split(iris.data,iris.target,random_state=0)
X_train,X_valid,y_train,y_valid=train_test_split(X_trainval,y_trainval,random_state=1)


print('训练集大小:{} 开发集大小:{} 测试集大小:{}'.format(X_train.shape[0],X_valid.shape[0],X_test.shape[0]))

best_score=0

for gamma in [0.001,0.01,0.1,1,10,100]:
    for C in [0.001,0.01,0.1,1,10,100]:
        #对每种参数组合都训练一个SVC
        svm=SVC(gamma=gamma,C=C)
        #交叉验证
        scores=cross_val_score(svm,X_trainval,y_trainval,cv=5)
        score=np.mean(scores)
        if score>best_score:
            best_score=score
            best_parameters={'C':C,'gamma':gamma}

svm=SVC(**best_parameters)
svm.fit(X_trainval,y_trainval)

要想使用5折交叉验证对C和gamma特定取值的SVM的精度进行评估,需要训练36*5=180个模型,可以想象,使用交叉验证的主要缺点就是训练所有的这些模型所需花费的时间。

下面的可视化说明了上述代码如何选择最佳参数设置:

对于每种参数设置,需要计算5个精度值,交叉验证的每次划分都要计算一个精度值,然后,对每种参数设置计算平均验证精度,最后,选择平均验证精度最高的参数,用圆圈标记。

划分数据,运行网格搜索并评估最终参数的过程:

由于带交叉验证的网格搜索是一种常用的调参方法,因此scikit-learn提供了GridSearchCV类,它以估计器的形式实现了这种方法。要使用GridSearchCV类,我们首先要用一个字典指定要搜索的参数。然后GridSearchCV会执行所有必要的模型拟合。字典的键是我们想要尝试的参数设置。如果C和gamma想要的取值是0.001、0.01、0.1、1、10、100,可以将其转化为下面这个字典:

param_grid={'C':[0.001,0.01,0.1,1,10,100]
            ,'gamma':[0.001,0.01,0.1,1,10,100]}
print('Parameter grid:\n{}'.format(param_grid))

现在我们可以使用模型(SVC)、要搜索的参数网格(param_grid)与要使用的交叉验证策略将GridSearchCV类实例化:

from sklearn.model_selection import GridSearchCV
from sklearn.svm import SVC
grid_search=GridSearchCV(SVC(),param_grid,cv=5)

GridSearchCV将使用交叉验证来代替之前用过的划分训练集和验证集方法。但是,我们仍需要将数据还分为训练集和测试集,以避免过拟合:

X_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=0)

我们创建的grid_search对象的行为就像是一个分类器,我们可以对它调用标准的fit、predict、score方法。但我们在调用fit时,它会对param_grid指定的每种参数组合都进行交叉验证:

grid_search.fit(X_train,y_train)

拟合GridSearchCV对象不仅会搜索最佳参数,还会利用得到最佳交叉验证性能的参数在整个训练集上自动拟合一个新模型。因此,fit完成的工作相当于本篇第一段代码的效果。GridSearchCV类提供了一个非常方便的接口,可以用predict和score方法来访问重新训练过的模型。

为了评估找到的最佳参数的泛化能力,我们可以在测试集上调用score:

score=grid_search.score(X_test,y_test)
print('测试集score:{:.2f}'.format(score))

利用交叉验证选择参数,我们实际上找到了一个在测试集上精度为97%的模型。重要的是,我们没有使用测试集来选择参数。我们找到的参数保存在best_params_属性中,而交叉验证最佳精度(对于这种参数设置,不同划分的平均精度)保存在best_score_中:

print('最佳参数:{}'.format(grid_search.best_params_))
print('最佳精度:{}'.format(grid_search.best_score_))

能够访问实际找到的模型,这有时是很有帮助的,比如查看系数或特征重要性。可以用best_estimator_属性来访问最佳参数对应的模型,它是在整个训练集上训练得到的:

print('最佳参数对应的模型:{}'.format(grid_search.best_estimator_))

由于grid_search本身具有predict和score方法,所以不需要使用best_estimator_来进行预测或评估模型。

1、分析交叉验证的结果

将交叉验证的结果可视化通常有助于理解模型泛化能力对所搜索参数的依赖关系。由于运行网格搜索的计算成本相当高,所以通常最高从相对比较稀疏且较小的网格开始搜索。然后我们可以检查交叉验证网格搜索的结果,可能也会扩展搜索范围。网格搜索的结果可以在cv_results_属性中找到,它是一个字典,其中保存了搜索的所有内容。你可以在下面的输出中看到,它包含许多细节,最好将其转换成pandas数据框后再查看:

results=pd.DataFrame(grid_search.cv_results_)
display(results.head())

results中每一行对应一种特定的参数设置。对于每种参数设置,交叉验证所有划分的结果都被记录下来,所有划分的平均值和标准差也被记录下来。由于我们搜索的是一个二维参数网格,所以最适合用热图可视化。我们首先提取平均验证分数,然后改变分数数组的形状,使其坐标轴分别对应C和gamma:

scores=np.array(results.mean_test_score).reshape(6,6)
mglearn.tools.heatmap(scores,xlabel='gamma',xticklabels=param_grid['gamma'],ylabel='C',yticklabels=param_grid['C'],cmap='viridis')
plt.show()

热图中的每个点对应于运行一次交叉验证以及一种特定的参数设置。颜色表示交叉验证的精度:浅色表示高精度,深色表示低精度。可以看到,SVC对参数设置非常敏感。对于许多种参数设置,精度都在40%左右,这是非常糟糕的:对于其他参数设置,精度约为96%。

我们可以从图中看出:

1、我们调节的参数对于获得良好的性能非常重要;这两个参数(C和gamma)都很重要,因为调节它们可以将精度从40%提高到96%

2、在我们选择的参数范围中也可以看到输出发生了显著的变化。

同样重要的是要注意,参数的范围要足够大,每个参数的最佳取值不能位于图像的边界上。

下面的例子,结果就不那么理想,因为选择的搜索范围不合适:

import mglearn.plots
import matplotlib.pyplot as plt
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import numpy as np
from sklearn.model_selection import GridSearchCV
from sklearn.svm import SVC


iris=load_iris()
X_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=0)

fig,axes=plt.subplots(1,3,figsize=(13,5))
param_grid_linear={'C':np.linspace(1,2,6),'gamma':np.linspace(1,2,6)}
param_grid_one_log={'C':np.linspace(1,2,6),'gamma':np.logspace(-3,2,6)}
param_grid_range={'C':np.logspace(-3,2,6),'gamma':np.logspace(-7,-2,6)}
for param_grid,ax in zip([param_grid_linear,param_grid_one_log,param_grid_range],axes):
    grid_search=GridSearchCV(SVC(),param_grid,cv=5)
    grid_search.fit(X_train,y_train)
    scores=grid_search.cv_results_['mean_test_score'].reshape(6,6)

    scores_image=mglearn.tools.heatmap(scores,xlabel='gamma',xticklabels=param_grid['gamma'],ylabel='C',yticklabels=param_grid['C'],cmap='viridis',ax=ax)

plt.colorbar(scores_image,ax=axes.tolist())
plt.show()

第一张图没有显示任何变化,整个参数网格的颜色相同,在这种情况下,这是由参数C和gamma不正确的缩放以及不正确的范围造成的。但如果对于不同的参数设置都看不到精度的变化,也可能是因为这个参数根本不重要。通常最好是开始时尝试非常极端的值,以观察改变参数是否会导致精度发生变化。

第二张图显示的是垂直条形模式。这表示只有gamma的设置对精度有影响。这可能意味着gamma参数搜索的范围是我们所关心的,而C参数并不是,也可能意味着C参数并不重要。

第三张图中C和gamma对应的精度都有变化。但可以看到,在图像的整个左下角都没有发生什么有趣的事情。我们在后面的网格搜索中可以不考虑非常小的值。最佳参数设置出现在右上角。由于最佳参数位于图像的边界,所以我们可以认为,在这个边界之外可能还有更好的取值,我们肯呢个希望改变搜索范围以包含这一区域内的更多参数。

基于交叉验证分数来调节参数网格是非常好的,也是搜索不同参数的重要性的好方法。但是,我们不应该在最终测试集上测试不同的参数范围,只有确切知道了想要使用的模型,才能对测试集进行评估。

2、在非网格的空间中搜索

在某些情况下,尝试所有参数的可能组合(正如GridSearchCV所做的那样)并不是一个好主意。例如SVC有一个kernel参数,根据所选的kernel(内核),其他参数也是与之相关的。如果kernel='linear',那么模型是线性的,只会用到C参数。如果kernel='rbf',则需要使用C和gamma两个参数,但用不到类似degree的其他参数。在这种情况下,搜索C、gamma和kernel所有可能的组合则没有意义:如果kernel='linear',那么gamma是用不到的,尝试gamma的不同取值将会浪费时间。

为了处理这种“条件”参数,GridSearchCV的param_grid可以是字典组成的列表。列表中的每个字典可扩展为一个独立的网络。包含内核与参数的网格搜索如下所示:

param_grid=[{'kernel':['rbf'],
             'C':[0.001,0.01,0.1,1,10,100],
             'gamma':[0.001,0.01,0.1,1,10,100]},
            {'kernel':['linear'],
             'C':[0.001,0.01,0.1,1,10,100]}]
print('grid列表:\n{}'.format(param_grid))

在第一个网络中,kernel参数始终等于'rbf',而C和gamma都是变化的。在第二个网格中,kernel参数始终等于'linear',只有C是变化的。

下面应用这个更加复杂的参数:

grid_search=GridSearchCV(SVC(),param_grid,cv=5)
grid_search.fit(X_train,y_train)
print('最佳参数:{}'.format(grid_search.best_params_))
print('最佳精度:{}'.format(grid_search.best_score_))

再次查看cv_results_,正如所料,如果kernel='linear',那么只有C是变化的:

results=pd.DataFrame(grid_search.cv_results_)
print(results.T)

3、使用不同的交叉验证策略进行网格搜索

与cross_val_score类似,GridSearchCV对分类问题默认使用分层k折交叉验证,对回归问题默认使用k折交叉验证。但是,我们可以传入任何交叉验证分离器作为GridSearchCV的cv参数。特别的,如果只想将数据单次划分为训练集和验证集,可以使用ShuffleSplit或StratifiedShuuleSplit,并设置n_iter=1.折对于非常大的数据集或非常慢的模型可能会有帮助。

1、嵌套交叉验证

在前面的例子中,我们将数据单次划分为训练集、验证集、测试集,然后先将数据划分为训练集和测试集,再在训练集上进行交叉验证。但在使用GridSearchCV时,我们仍然将数据单次划分为训练集和测试集,这可能会导致结果不稳定,也让我们过于依赖数据的此次划分。

我们可以深入一点,不是只将原始数据一次划分为训练集和测试集,而是使用交叉验证多次划分,这就是所谓的嵌套交叉验证。在嵌套交叉验证中,有一个外层循环,遍历将数据划分为训练集和测试集的所有划分,对于每种划分都运行一次网格搜索。然后,对每种外层划分,利用最佳参数设置计算得到测试集分数。

这一过程的结果是由分数组成的列表,不是一个模型,也不是一种参数设置。这些分数告诉我们在网格找到的最佳参数下模型的泛化能力好坏。由于嵌套交叉验证不提供可用于新数据的模型,所以在寻找可用于未来数据的预测模型时很少用到它,但是,它对于评估给定模型在特定数据集上的效果很有用。

在scikit-learn中实现嵌套交叉验证很简单。我们调用cross_cal_score,并用GridSearchCV的一个实例作为模型:

scores=cross_val_score(grid_search,iris.data,iris.target,cv=5)

print('最佳参数:{}'.format(scores))
print('最佳精度:{}'.format(scores.mean()))

嵌套交叉验证的结果可以总结为“SVC在iris数据集上的交叉验证平均精度为98%”

这里我们在内层循环和外层循环中都使用了分层5折交叉验证。由于param_grid包含36中参数组合,所以需要构建36*5*5=900个模型,导致嵌套交叉验证过程的代价很高。这里我们在内层循环和外层循环中使用相同的交叉验证分离器,但这不是必需的,你可以在内层循环和外层循环中使用交叉验证策略的任意组合。理解上面单层代码的内容可能有点困难,将其展开为for循环可能有所帮助:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
import numpy as np
from sklearn.svm import SVC
from sklearn.model_selection import ParameterGrid,StratifiedKFold


iris=load_iris()
X_train,X_test,y_train,y_test=train_test_split(iris.data,iris.target,random_state=0)
param_grid={'C':[0.001,0.01,0.1,1,10,100]
            ,'gamma':[0.001,0.01,0.1,1,10,100]}

def nested_cv(X,y,inner_cv,outer_cv,Classifier,parameter_grid):
    outer_scores=[]
    for training_samples,test_samples in outer_cv.split(X,y):
        #内层交叉验证,找到最佳参数
        best_parms={}
        best_score=-np.inf
        #遍历参数
        for parameters in parameter_grid:
            #在内层划分中累加分数
            cv_scores=[]
            for inner_train,inner_test in inner_cv.split(X[training_samples],y[training_samples]):
                clf=Classifier(**parameters)
                clf.fit(X[inner_train],y[inner_train])
                #在内层测试集上进行评估
                score=clf.score(X[inner_test],y[inner_test])
                cv_scores.append(score)
            #计算内层交叉验证的平均分数
            mean_score=np.mean(cv_scores)
            if mean_score>best_score:
                #如果比前面的模型逗号,则保留参数
                best_score=mean_score
                best_parms=parameters
        clf=Classifier(**best_parms)
        clf.fit(X[training_samples],y[training_samples])
        outer_scores.append(clf.score(X[test_samples],y[test_samples]))
    return np.array(outer_scores)

scores=nested_cv(iris.data,iris.target,StratifiedKFold(5),StratifiedKFold(5),SVC,ParameterGrid(param_grid))
print('精度:{}'.format(scores))

2、交叉验证与网格搜索并行

虽然在许多参数上运行网格搜索和在大型数据集上运行网格搜索的计算量可能很大,但令人尴尬的是,这些计算都是并行的。这也就是说,在一种交叉验证划分下使用特定参数来构建一个模型,与利用其他参数的模型是完全独立的。这使得网格搜索与交叉验证称为多个CPU内核或集群上并行化的理想选择。你可以将n_jobs参数设置为你想使用的CPU内核数量,从而在GridSearchCV和cross_val_score中使用多个内核。你可以设置n_jobs=-1来使用所有可以用的内核。

但是,scikit-learn不允许并行操作的嵌套。因此,如果在模型中使用了n_jobs选项,那么就不能在GridSearchCV使用它来搜索这个模型。如果我们的数据集和模型都非常大,那么使用多个内核可能会占用大量内存,应该在并行构建大型模型时监控内存的使用情况。

还可以在集群内的多台机器上并行运行网格搜索和交叉验证。

对于spark用户,还可以使用最新开发的scikit-learn包,它允许在已经建立好的Spark集群上进行网格搜索。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1887509.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Git入门 本地仓库 远端仓库 多分支

Git入门 Git入门本地git初始化git仓库初始化 创建远端仓库githubgitee 指定远端仓库推送至远端多分支将feature分支合并至dev分支 其他开发者 Git入门 本地git初始化 git仓库初始化 mkdir myrepo # 创建仓库文件夹 cd myrepo/ # 进入目录 git init # 初始化git仓库 (创建.g…

BMA456 运动传感器

型号简介 BMA456是博世(bosch-sensortec)的一款超小型、三轴、低重力高性能加速度传感器,配备数字接口。该传感器适用于低功耗且要求严格的消费电子应用。它可以检测手腕倾斜、按压/双击,并支持即插即用计步功能,尤其适…

让新质生产力照进现实,智慧数据基础设施需要软硬兼施

数智化时代,什么才是企业与组织最大的差异化竞争力? 答案无疑是:数据。在生成式AI技术日新月异之际,发展新质生产力已成为产业共识,越来越多的企业意识到:数据乃一切运作的基础,是企业拥抱AI浪…

【信息系统项目管理师】18年~23年案例概念型知识

文章目录 18上18下19上19下20上20下21上21下22年上22年下23年上 18上 请简述 ISO 9000 质量管理的原则 领导作用、 过程方法、 管理的系统方法、 与供方互利的关系、 基于事实的决策方法、 持续改进、 全员参与、 以顾客为关注焦点 概念 国家标准(GB/T 1 9000 2008)对质量的定…

Thinking--Promise解决动态挂载静态资源重复问题

Thinking系列,旨在利用10分钟的时间传达一种可落地的编程思想。 #mermaid-svg-MQ0o4hbZOvkQJra0 {font-family:"trebuchet ms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-MQ0o4hbZOvkQJra0 .error-icon{fill:#552222;}#mermaid-s…

嵌入式Linux系统编程 — 6.3 kill、raise、alarm、pause函数向进程发送信号

目录 1 kill函数 1.1 kill函数介绍 1.2 示例程序 2 raise函数 2.1 raise函数介绍 2.2 示例程序 3 alarm函数 3.1 alarm函数介绍 3.2 示例程序 4 pause函数 4.1 pause函数介绍 4.2 示例程序 与 kill 命令相类似, Linux 系统提供了 kill()系统调用&#…

仿全民飞机大战射击网页游戏源码

仿全民飞机大战设计网页游戏源码,画质精美的飞机大战手机端游戏源码 微信扫一扫免费下载源码

搞管理千万别犯这3大禁忌,否则活该你当不了领导,切忌!

搞管理千万别犯这3大禁忌,否则活该你当不了领导,切忌! 禁忌一:不懂放权 美国总统罗斯福曾说过:“一个最好的管理者,很擅长知人善任。当下属在从事其职务时,管理者要懂得约束自己,不…

MyBatis入门案例

实施前的准备工作: 1.准备数据库表2.创建一个新的springboot工程,选择引入对应的起步依赖(mybatis、mysql驱动、lombok)3.在application.properties文件中引入数据库连接信息4.创建对应的实体类Emp(实体类属性采用驼峰…

一文揭秘:CRM如何助力家居建材企业可持续发展?

01、家居建材行业业务高速发展,对数字化转型提出越来越高诉求 家居建材行业是国民经济的重要基础产业,是改善人居条件、治理生态环境和发展循环经济的重要支撑。家居建材是土木工程和建筑工程中使用材料的统称,包括天花板、瓷砖、门、窗、锁…

VGPU的使用

(作者:陈玓玏) 开源项目,欢迎star哦,https://github.com/data-infra/cube-studio 训练AI模型以及部署模型推理服务时,GPU往往是必不可少的,但当我们机器上没有足够的GPU卡可使用时&#xf…

如何选择品牌推广公司?哪家好?收费标准及评价!

不管是什么品牌,推广对公司的成败起了很关键的作用。然而,面对市面上琳琅满目的品牌推广公司,如何选择一家既熟悉又靠谱的公司,成为许多企业主面临的难题。 作为一家手工酸奶品牌的创始人,目前全国也复制了100多家门店…

PyInstaller exe文件报错

文章目录 包找不到的问题去掉黑窗口 包找不到的问题 遇到的问题 : 打包好了之后exe文件报错: 没有找到这个文件 1.当时打包的 有这个文件main.spec 打开它找到hiddenimports ,填上差的包 2, 删除build和dist 3,在当前命令行下执行pyinstaller main.spec打包生成exe 去掉黑…

Polygon链的对接及使用

Polygon(前身为Matic Network)是一个基于以太坊的侧链,旨在解决以太坊网络拥堵和高昂 gas 费的问题。Polygon 使用侧链技术将交易从以太坊主网转移到自己的侧链上,从而提高交易速度和降低 gas 费。北京木奇移动技术有限公司&#…

DFS练习

105 从前序与中序遍历序列构造二叉树 import java.util.HashMap; import java.util.Map;class TreeNode {int val;TreeNode left;TreeNode right;public TreeNode(int val) {this.val val;} }public class Letcode105 {public TreeNode bulidTree(int[] preOrder, int[] inOrd…

【RabbitMQ实战】邮件发送(直连交换机、手动ack)

一、实现思路 二、异常情况测试现象及解决 说明:本文涵盖了关于RabbitMQ很多方面的知识点, 如: 消息发送确认机制 、消费确认机制 、消息的重新投递 、消费幂等性, 二、实现思路 1.简略介绍163邮箱授权码的获取 2.编写发送邮件工具类 3.编写RabbitMQ配置文件 4.生产者发起调用…

linux内核驱动第一课(基于RK3568)

学习Linux驱动需要以下基础知识: C语言编程:掌握C语言是开发Linux驱动程序的基本要求。操作系统原理:了解操作系统的基本概念和原理,如进程管理、内存管理、中断处理等。Linux内核:熟悉Linux内核的结构和工作机制&…

DreamTech联合南大和牛津发布最强3D内容生成大模型——Direct3D

文章链接:https://arxiv.org/pdf/2405.14832 github链接:https://nju-3dv.github.io/projects/Direct3D/ 从文本和图像生成高质量的3D资产一直是一项挑战,主要是由于缺乏能够捕捉复杂几何分布的可扩展3D表示。在这项工作中,介绍…

力扣61. 旋转链表(java)

思路:用快慢指针找到最后链表k个需要移动的节点,然后中间断开节点,原尾节点连接原头节点,返回新的节点即可; 但因为k可能比节点数大,所以需要先统计节点个数,再取模,看看k到底需要移…

网络爬虫基础知识

文章目录 网络爬虫基础知识爬虫的定义爬虫的工作流程常用技术和工具爬虫的应用1. 抓取天气信息2. 抓取新闻标题3. 抓取股票价格4. 抓取商品价格5. 抓取博客文章标题 网络爬虫基础知识 爬虫的定义 网络爬虫(Web Crawler 或 Spider)是一种自动化程序&…