TensorFlow 决策森林详细介绍和使用说明

news2024/11/24 0:21:20

使用TensorFlow训练、调优、评估、解释和部署基于树的模型的完整教程

两年前TensorFlow (TF)团队开源了一个库来训练基于树的模型,称为TensorFlow决策森林(TFDF)。经过了2年的测试,他们在上个月终于宣布这个包已经准备好发布了,也就是说我们可以真正的开始使用了。所以这篇文章将详细介绍这个软件包,并向你展示如何(有效地)使用它。

在这篇文章中,我们将使用美国小企业管理局数据集训练一些贷款违约预测模型。模型将使用已经预处理的数据进行训练。安装TensorFlow决策森林非常简单,只需运行

pip install tensorflow_decision_forests

TensorFlow Decision Forest

1、什么是TFDF?

TensorFlow决策森林实际上是建立在c++的Yggdrasil决策森林之上库的,Yggdrasil决策森林也是由谷歌开发的。最初的c++算法旨在构建可扩展的决策树模型,可以处理大型数据集和高维特征空间。通过将这个库集成到更广泛的TF生态系统中,用户无需学习另一种语言就可以轻松地构建可扩展的RF和GBT模型。

2、为什么要用它?

与XGBoost或LightGBM相比,这个库的主要优势在于它与其他TF生态系统组件紧密集成。对于已经将其他TensorFlow模型作为管道的一部分或使用TFX的团队来说,这是非常有用的,因为TFDF可以很容易地与NLP模型集成。如果你正在使用TF Serving为模型提供对外服务,这个库也是可以用的,因为它是官方的原生支持(不需要ONNX或其他跨包序列化方法)模型的部署。最后这个库为还提供了大量参数,可以根据XGBoost、LightGBM和许多其他梯度增强机(GBM)方法来调整获得近似模型。这意味着不需要在训练过程中在不同的GBM库之间切换,这从代码可维护性的角度来说非常好。

模型训练

1、数据准备

我们使用了数据处理后的版本,所以不需要进行数据的预处理:

 # Read in data
 train_data: pd.DataFrame=pd.read_parquet("../data/train_data.parquet")
 val_data: pd.DataFrame=pd.read_parquet("../data/val_data.parquet")
 test_data: pd.DataFrame=pd.read_parquet("../data/test_data.parquet")
 
 # Set data types
 NUMERIC_FEATURES= [
     "Term",
     "NoEmp",
     "CreateJob",
     "RetainedJob",
     "longitude",
     "latitude",
     "GrAppv",
     "SBA_Appv",
     "is_new",
     "same_state",
 ]
 
 CATEGORICAL_FEATURES= [
     "FranchiseCode",
     "UrbanRural",
     "City",
     "State",
     "Bank",
     "BankState",
     "RevLineCr",
     "naics_first_two",
 ]
 
 TARGET="is_default"
 
 # Make sure that datatypes are consistent
 dsets= [train_data,val_data,test_data]
 fordindsets:
     d[NUMERIC_FEATURES] =d[NUMERIC_FEATURES].astype(np.float32)
     d[CATEGORICAL_FEATURES] =d[CATEGORICAL_FEATURES].astype(str)

2、特征

为了确保项目结构良好并避免意外行为,可以为每个特性指定一个FeatureUsage,尽管这不是强制性的,但是使用这种方法可以让我们的项目更加规范。并且这也是一项简单的任务:只需要从支持的六种类型(BOOLEAN、CATEGORICAL、CATEGORICAL_SET、DISCRETIZED_NUMERICAL、HASH和NUMERICAL)中决定将哪些特征类型分配给哪个类型就可以了。其中一些类型带有额外的参数,所以请确保在这里关于它们的信息。

在本例中我们将保持简单,只使用数值和类别数据类型,但是需要说明下DISCRETIZED_NUMERICAL,它可以显著加快训练过程(类似于LightGBM)。我们使用的代码如下,指定所选的数据类型,对于类别特征,还要指定min_vocab_frequency参数以去除罕见值。

 importtensorflow_decision_forestsastfdf
 
 # Prepare Feature Usage list
 feature_usages= []
 
 # Numerical features
 forfeature_nameinNUMERIC_FEATURES:
     feature_usage=tfdf.keras.FeatureUsage(
         name=feature_name, semantic=tfdf.keras.FeatureSemantic.NUMERICAL
     )
     feature_usages.append(feature_usage)
 
 # Categorical features
 forfeature_nameinCATEGORICAL_FEATURES:
     feature_usage=tfdf.keras.FeatureUsage(
         name=feature_name,
         semantic=tfdf.keras.FeatureSemantic.CATEGORICAL,
         min_vocab_frequency=1000,
     )
     feature_usages.append(feature_usage)

3、使用TF Dataset读取数据

读取数据的最简单方法是使用TF Dataset。TFDF有一个非常好的实用函数pd_dataframe_to_tf_dataset,它使这一步变得非常简单。

 # Use TF Dataset to read in data
 train_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(
     train_data, label=TARGET, weight=None, batch_size=1000
 )
 val_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(
     val_data, label=TARGET, weight=None, batch_size=1000
 )
 test_dataset=tfdf.keras.pd_dataframe_to_tf_dataset(
     test_data, label=TARGET, weight=None, batch_size=1000
 )

在上面的代码中,我们将DataFrame对象传递到函数中,并提供以下参数:

  • label 列的名称
  • weight 列的名称(在本例中为None)
  • 批大小(有助于加快数据的读取)

得到的数据集是就是TF Dataset的格式。也可以创建自己的方法来读取数据集,但必须特别注意输出的格式,没有这个方法这样方便。

3、TFDF默认参数

 ## Define the models
 # Gradient Boosted Trees model
 gbt_model=tfdf.keras.GradientBoostedTreesModel(
     features=feature_usages,
     exclude_non_specified_features=True,
 )
 # Random Forest modle
 rf_model=tfdf.keras.RandomForestModel(
     features=feature_usages,
     exclude_non_specified_features=True,
 )
 
 # Compile the models (Optional)
 gbt_model.compile(metrics=[tf.keras.metrics.AUC(curve="PR")])
 rf_model.compile(metrics=[tf.keras.metrics.AUC(curve="PR")])
 
 # Fit the models
 gbt_model.fit(train_dataset, validation_data=val_dataset)
 rf_model.fit(train_dataset, validation_data=val_dataset)

只需要几行代码就可以使用默认参数构建和训练GBT和RF模型。当使用ROC和PR auc评估这两个模型时可以看到性能已经相当好了。

 # GBT with Default Parameters
 PR AUC: 0.8367
 ROC AUC: 0.9583
 
 # RF with Default Parameters
 PR AUC: 0.8102
 ROC AUC: 0.9453

那么是否可以进行超参数调优进一步改善这些结果呢。

超参数调优

Yggdrasil官方文档中有大量的参数可以进行调优,每一个参数都有很好的解释。TFDF也提供了一些内置选项来调优参数,为了简单也使用超参数的搜索库,例如Optuna或Hyperpot。

1、超参数模板

TFDF提供的非常好特性就是超参数模板。这些参数在论文中被证明在广泛的数据集上表现最好。有两个可用的模板:better_default和benchmark_rank。如果你时间不够,或者对机器学习不太熟悉,这是一个不错的选择。指定这些参数只需要一行代码。

 # Define the models
 better_default_gbt_model=tfdf.keras.GradientBoostedTreesModel(
     hyperparameter_template='better_default',  # template 1
     features=feature_usages,
     exclude_non_specified_features=True,
 )
 
 benchmark_gbt_model=tfdf.keras.GradientBoostedTreesModel(
     hyperparameter_template='benchmark_rank1',  # template 2
     features=feature_usages,
     exclude_non_specified_features=True,
 )
 
 # Fit the models (notice that we're skipping compiling step)
 better_default_gbt_model.fit(train_dataset, validation_data=val_dataset)
 benchmark_gbt_model.fit(train_dataset, validation_data=val_dataset)

看看结果怎么样:使用better_default参数,在ROC和PR auc中得到轻微的提升。benchmark_rank参数的性能要差得多。这就是为什么在部署结果模型之前正确地评估它们是很重要的。

 GBT with 'Better Default' Parameters
 PR AUC: 0.8483
 ROC AUC: 0.9593
 
 GBT with 'Benchmark Rank 1' Parameters
 PR AUC: 0.7869
 ROC AUC: 0.9442

2、定义搜索空间

TFDF附带了一个很好的程序,叫做RandomSearch,它在许多可用参数之间执行随机网格搜索。TFDF可以使用预定义的搜索空间或者通过一个选项可以手动指定这些参数(见示例)。如果您不太熟悉ML,这可能是一个很好的选择,因为它不需要手动设置这些参数。

 # Create a Random Search tuner with 50 trials and automatic hp configuration.
 tuner=tfdf.tuner.RandomSearch(num_trials=50, use_predefined_hps=True)
 
 # Define and train the model.
 tuned_model=tfdf.keras.GradientBoostedTreesModel(tuner=tuner)
 tuned_model.fit(train_dataset, validation_data=val_dataset, verbose=2)

注意:无论那个超参数搜索都会耗费大量的时间,所以请根据模型谨慎选择。

进行完搜索后,可以使用下面的命令查看所有尝试过的组合。

 tuning_logs = tuned_model.make_inspector().tuning_logs()

我们进行了12次迭代,最佳模型的表现比基线稍差,所以请谨慎使用内置的调优方法,建议使用其他库,比如Optuna。

 PR AUC: 0.8216
 ROC AUC: 0.9418

3、optuna

下面我们介绍如何使用optuna进行调优。

 importoptuna
 
 
 defobjective(trial: optuna.Trial) ->float:
     params= {
         "max_depth": trial.suggest_int("max_depth", 2, 10),
         "l1_regularization": trial.suggest_float("l1_regularization", 0.01, 20),
         "l2_regularization": trial.suggest_float("l2_regularization", 0.01, 20),
         "growing_strategy": trial.suggest_categorical(
             "growing_strategy", ["LOCAL", "BEST_FIRST_GLOBAL"]
         ),
         "loss": trial.suggest_categorical(
             "loss", ["BINOMIAL_LOG_LIKELIHOOD", "BINARY_FOCAL_LOSS"]
         ),
         "min_examples": trial.suggest_int("min_examples", 5, 1000, step=5),
         "focal_loss_alpha": trial.suggest_float("focal_loss_alpha", 0.05, 0.6),
         "num_candidate_attributes_ratio": trial.suggest_float(
             "num_candidate_attributes_ratio", 0.05, 0.95
         ),
         "shrinkage": trial.suggest_float("shrinkage", 0.01, 0.9),
         "early_stopping_num_trees_look_ahead": 50,
         "num_trees": 2000,
     }
 
     model=tfdf.keras.GradientBoostedTreesModel(**params)
     model.fit(train_dataset, validation_data=val_dataset, verbose=0)
     preds=model.predict(val_dataset).ravel()
     ap=average_precision_score(val_data[TARGET], preds)
 
     returnap
 
 
 study=optuna.create_study(direction="maximize")
 study.optimize(objective, n_trials=50)

这些参数中的大多数对于gbt来说是相当标准的,但也有一些值得注意的参数:

  • 将growing_strategy更改为BEST_FIRST_GLOBAL(又称为按叶生长),这是LightGBM使用的策略。
  • 使用BINARY_FOCAL_LOSS,它应该对不平衡的数据集更好。
  • 更改split_axis参数以使用 sparse oblique splits,这在论文中证明是非常有效的。
  • 使用honest参数构建“honest trees”。

可以看到使用最佳参数获得的结果,自定义永远要比自动的好。

 GBT with Custom Tuned Parameters
 PR AUC: 0.8666
 ROC AUC: 0.9631

现在我们已经确定了超参数,可以重新训练模型并继续进行我们的工作。

模型检验

TFDF提供了一个很好的实用工具来检查经过训练的模型,称为Inspector,他有3个主要用途:

  • 检查模型的属性,如类型,树的数量或使用的特征
  • 获取特性的重要性
  • 提取树结构

1、检查模型属性

inspector类存储了模型各种属性:模型类型(GBT或RF)、树的数量、训练目标以及用于训练模型的特征等等

 inspector = manual_tuned.make_inspector()
 
 print("Model type:", inspector.model_type())
 print("Number of trees:", inspector.num_trees())
 print("Objective:", inspector.objective())
 print("Input features:", inspector.features())

或者使用

manual_tuned.summary()

来更详细地查看模型。

2、特征的重要性

像所有其他库一样,TFDF带有内置的特性重要性评分。对于gbt,可以访问NUM_NODES, SUM_SCORE, INV_MEAN_MIN_DEPTH, NUM_AS_ROOT方法。需要注意的是,可以在训练期间将compute_permutation_variable_importance参数设置为True,这将添加一些额外的方法,但是模型的训练速度会慢。

 defplot_tfdf_importances(
     inspector: tfdf.inspector.AbstractInspector, importance_type: str
 ):
     """Extracts and plots TFDF importances from the given inspector object
     Args:
         inspector (tfdf.inspector.AbstractInspector): inspector object created from your TFDF model
         importance_type (str): importance type to plotß
     """
     try:
         importances=inspector.variable_importances()[importance_type]
     exceptKeyError:
         raiseValueError(
             f"No {importance_type} importances found in the given inspector object"
         )
     names= []
     scores= []
     forfinimportances:
         names.append(f[0].name)
         scores.append(f[1])
 
     sns.barplot(x=scores, y=names, color="#5a7dbf")
     plt.xlabel(importance_type)
     plt.title("Variable Importance")
     plt.show()

可以看到,Term变量一直是最重要的特征,紧随其后的是Bank、State和Bank State等类别变量。但是TFDF库最大的缺点之一是不能使用SHAP,这样可解释性的查看就有一些不方便。

3、检查树的结构

为了解释或模型验证,我们希望查看单个树。TFDF可以方便地访问所有树。比如GBT模型的第一棵树,因为它通常是信息量最大的树。

 first_tree=inspector.extract_tree(tree_idx=0)
 print(first_tree.pretty())

当处理较大的树时,使用print语句检查它们不太方便。TFDF提供了一个树绘图工具——TFDF .model_plotter

 withopen("plot.html", "w") asf: 
     f.write(tfdf.model_plotter.plot_model(manual_tuned, tree_idx=0, max_depth=4))

这样就方便很多了。

TF Serving

我们已经对模型进行了训练、调优和评估。最后的一个工作就是部署了,这部分也很简单,因为TFDF是官方的,必然会支持TF Serving。如果已经有了一个TF服务实例,那么所需要做的就是在model_base_path参数中指向要发布的模型。

首先就是保存我们的模型:

 manual_tuned.save("../models/loan_default_model/1/")

然后就是在本地安装TF services,并使用正确的参数启动它。

 ./tensorflow_model_server \
     --rest_api_port=8501 \
     --model_name=loan_default_model \
     --model_base_path=/path/models/loan_default_model/1

这里的model_base_path一定要是绝对路径。在TF服务服务器启动后,就可以开始接收请求了。有两种预期的格式——实例和输入。

 # Input data formatted correctly
 data= {
     "Bank": ["Other"],
     "BankState": ["TN"],
     "City": ["Other"],
     "CreateJob": [12.0],
     "FranchiseCode": ["0"],
     "GrAppv": [14900000.0],
     "NoEmp": [28.0],
     "RetainedJob": [16.0],
     "RevLineCr": ["N"],
     "SBA_Appv": [14900000.0],
     "State": ["TN"],
     "Term": [240.0],
     "UrbanRural": ["0"],
     "is_new": [0.0],
     "latitude": [35.3468],
     "longitude": [-86.22],
     "naics_first_two": ["44"],
     "same_state": [1.0],
     "ApprovalFY": [1]
 }
 payload= {"inputs": data}
 
 # Send the request
 url='http://localhost:8501/v1/models/default_model:predict'
 response=requests.post(url, json=payload)
 
 # Print out the response
 print(json.loads(response.text)['outputs'])
 # Expected output: [[0.0138759678]]

返回的json串就包含了模型的预测结果。

总结

经过了2年的测试,TFDF终于发布正式版了。它是在TensorFlow中基于训练树的模型的一个强大且可扩展的库。TFDF模型与TensorFlow生态系统的其他部分很好地集成在一起,所以如果你正在使用TFX,在生产中有其他TF模型,或者正在使用TF服务,你会发现这个库非常有用。

本文的代码部分并不完全,如果你想自己探索,可以在这里下载完成的代码和数据集:

https://avoid.overfit.cn/post/db8eeaae665f410f90111b4ca0017b94

作者:Antons Tocilins-Ruberts

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/430095.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

在android项目上集成libyuv库以及使用linyuv库完成camera的缩放,旋转,翻转,裁剪操作

目录 一、下拉google官方的libyuv库代码 二、在android项目中集成libyuv库 1.环境配置 2.拷贝libyuv源码文件 ​编辑3.配置cmake libyuv相关的链接编译等 三、使用libyuv库 1.libyuv库完成camera的旋转 2.libyuv库实现翻转 3.libyuv库实现缩放 4.libyuv库实现裁剪 一…

为什么重视安全的公司都在用SSL安全证书?

我们今天来讲一讲为什么重视安全的公司都在用SSL证书 SSL证书是什么? SSL安全证书是由权威认证机构颁发的,是CA机构将公钥和相关信息写入一个文件,CA机构用他们的私钥对我们的公钥和相关信息进行签名后,将签名信息也写入这个文件…

对于数据库而言,其锁范围可以分为全局锁 、表级锁、 行级锁

一、全局锁 全局锁就是对整个数据库实例加锁。 MySQL 提供了一个加全局读锁的方法,命令是 Flush tables with read lock (FTWRL)。当你需要让整个库处于只读状态的时候,可以使用这个命令,之后其他线程的以下语句会被阻塞:数据更新…

DOM(1)

DOM(文档对象模型):处理可扩展标记语言(HTML或XML)的标准编程接口,可以改变网页的内容、结构和样式。DOM树: …

ubuntu18 网络问题

在/etc/netplan/*.yaml配置文件中: renderer的值可以是networkd,或者是NetworkManager 它俩的其中一个区别为: networkd在图像界面,networking setting中不显示网卡配置。 版权简介: 从Ubuntu 18.04.2版本开始&…

腾讯云4核8G轻量服务器12M支持多少访客同时在线?并发数怎么算?

腾讯云轻量4核8G12M轻量应用服务器支持多少人同时在线?通用型-4核8G-180G-2000G,2000GB月流量,系统盘为180GB SSD盘,12M公网带宽,下载速度峰值为1536KB/s,即1.5M/秒,假设网站内页平均大小为60KB…

网络安全:网络攻击原理与方法.

网络安全:网络攻击原理与方法. 网络攻击:是损害网络系统安全属性的危害行为。危害行为导致网络系统的机密性、完整性、可控性、真实性、抗抵赖性等受到不同程度的破坏。 目录: 常见的危害行为有四个基本类型: 网络攻击模型&…

项目实践 | 行人跟踪与摔倒检测报警

项目实践 | 行人跟踪与摔倒检测报警 小白学视觉 7月7日 原文地址:项目实践 | 行人跟踪与摔倒检测报警 1.简介 本项目的目的是为了给大家提供跟多的实战思路,抛砖引玉为大家提供一个案例,也希望读者可以根据该方法实现更多的思想与想法&…

为什么Uber从PostgreSQL换成了MySQL

说明:本文翻译自Why Uber Engineering Switched from Postgres to MySQL 引言 Uber的早期架构包括一个用Python编写的单一后端应用程序,它使用Postgres进行数据持久化。从那时起,Uber的架构发生了重大变化,转向了微服务和新数据…

比例放大器设置接线US-DAS1/US-DAS2

US-DAS1、US-DAS2比例放大器接线定义 1 CMD 指令 2 CMD- 指令- 3/4/5 N.C. 不接 6 ENA 使能 7 VREF_5V 参考电压5V 8 VREF_0V 参考电压0V 9 SOL_A 电磁铁A 10 SOL_A- 电磁铁A- 11 PWR 电源 12 PWR- 电源- 13 SOL_B- 电磁铁B- 15 RS485_A - 16 RS485_B -

LeetCode-盛最多水的容器-11题

LeetCode-盛最多水的容器-11题 题目中要求计算最大面积,即需要选择对应的长和宽。 最终解决方法:使用对撞指针 对撞指针的概念:是指在数组的两个端引入两个指针,左指针不断向右移动,右指针不断向左移动。最终到达两个…

Spring AOP切入点表达式

先来认识两个概念吧(其实Spring AOP实现功能增强的方式就是代理模式) 目标对象(Target):原始功能去掉共性功能对应的类产生的对象,这种对象是无法直接完成最终工作的代理(Proxy):目标对象无法直接完成工作,…

【学术搬砖】第一期

“一期一会” —— 珍惜我们遇见的论文,把和每个论文的相遇,当做一种缘分。我们会定期推荐若干优质学术论文,并分享一段总结,非常欢迎提出任何建议和想法。 【NeurIPS2022】ShufflfleMixer: An Effificient ConvNet for Image Su…

R -- 时序分析

brief 横截面数据对应着某个时间点的数据。 纵向的数据对应着一系列时间点的数据&#xff0c;某个变量随着时间的变动被反复测量。 研究纵向数据&#xff0c;也许会得到“时间”的答案。 描述时间序列 生成时序对象 x <- runif(20)ts(x) ts(x,frequency 12) ts(x,frequen…

python整合Django框架初试

1.安装 以下是安装Django的步骤&#xff1a; 确认Python已经安装&#xff1a;在终端&#xff08;Mac/Linux&#xff09;或命令提示符&#xff08;Windows&#xff09;中输入python -V&#xff0c;如果出现Python版本号&#xff0c;则已经安装Python&#xff1b;如果未安装&…

Nginx配置与应用

Nginx 是开源、高性能、高可靠的 Web 和反向代理服务器&#xff0c;而且支持热部署&#xff0c;几乎可以做到 7 * 24 小时不间断运行&#xff0c;即使运行几个月也不需要重新启动&#xff0c;还能在不间断服务的情况下对软件版本进行热更新。性能是 Nginx 最重要的考量&#xf…

PCL源码剖析 -- 欧式聚类

PCL源码剖析 – 欧式聚类 参考&#xff1a; 1. pcl Euclidean Cluster Extraction教程 2. 欧式聚类分析 3. pcl-api源码 4. 点云欧式聚类 5. 本文完整工程地址 可视化结果 一. 理论 聚类方法需要将无组织的点云模型P划分为更小的部分&#xff0c;以便显著减少P的总体处理时间…

centos7.6部署ELK集群(三)之logstash7.7.0部署

32.5. 部署logstash7.7.0&#xff08;在主节点上操作&#xff09; 32.6.1. 下载logstash7.7.0 Logstash 官方下载地址&#xff1a;https://www.elastic.co/cn/downloads/logstash 32.6.2. 解压至安装目录 tar –xvf logstash-7.7.0.tar.gz -C /vmdata/ 32.6.3. 修改logstas…

逍遥自在学C语言 位运算符 “|“ 的5种高级用法

前言 在上一篇文章中&#xff0c;我们介绍了&运算符的高级用法&#xff0c;本篇文章&#xff0c;我们将介绍| 运算符的一些高级用法。 一、人物简介 第一位闪亮登场&#xff0c;有请今后会一直教我们C语言的老师 —— 自在。 第二位上场的是和我们一起学习的小白程序猿 —…

JAVA入坑之异常处理

目录 一、程序错误 二、异常 2.1概述 2.2产生原因 2.3Java 异常层次结构 Error Exception 2.3.1非受检异常 2.3.2受检异常 三、异常处理机制 3.1概述 ​编辑 调用栈Call Stack 3.2异常类型的实现 3.3异常处理的关键字&#xff1a; 3.3.1try-catch Block ​编辑 …