06-机器学习-数据预处理

news2025/1/30 22:18:15

数据清洗

数据清洗是数据预处理的核心步骤,旨在修正或移除数据集中的错误、不完整、重复或不一致的部分,为后续分析和建模提供可靠基础。以下是数据清洗的详细流程、方法和实战示例:


一、数据清洗的核心任务

问题类型表现示例影响
缺失值数值型字段为空(NaN)模型无法处理缺失值,导致训练中断或偏差
异常值年龄=200岁,房价=-100万扭曲统计指标(如均值),降低模型泛化性
重复数据两行记录完全相同导致模型过拟合,降低数据代表性
不一致数据日期格式混乱(2023-09-01 vs 01/09/23)解析错误,特征提取失败

二、数据清洗流程与工具

1. 缺失值处理
  • 检测缺失值

    # 统计每列缺失比例
    missing_ratio = data.isnull().mean() * 100
    print(missing_ratio.sort_values(ascending=False))
    
  • 处理方法

    方法适用场景代码示例
    直接删除缺失比例高(>80%)或无关字段data.dropna(axis=1, thresh=len(data)*0.2)
    均值/中位数填充数值型字段,缺失随机分布data['age'].fillna(data['age'].median(), inplace=True)
    众数填充类别型字段data['gender'].fillna(data['gender'].mode()[0], inplace=True)
    插值法时间序列数据(如温度记录)data['temperature'].interpolate(method='time', inplace=True)
    模型预测填充复杂场景(如多变量关联缺失)使用KNN或随机森林预测缺失值(见下方代码)

    KNN填充示例

    from sklearn.impute import KNNImputer
    imputer = KNNImputer(n_neighbors=5)
    data_filled = pd.DataFrame(imputer.fit_transform(data), columns=data.columns)
    

2. 异常值处理
  • 检测方法

    • 描述性统计:检查最小/最大值是否合理
      print(data.describe())
      
    • 箱线图(Boxplot)
      plt.figure(figsize=(8,4))
      sns.boxplot(x=data['income'])
      plt.title("Income Distribution")
      plt.show()
      
    • Z-Score法(正态分布数据):
      z_scores = (data['value'] - data['value'].mean()) / data['value'].std()
      outliers = data[abs(z_scores) > 3]  # Z>3为异常
      
    • IQR法(非正态分布数据):
      Q1 = data['age'].quantile(0.25)
      Q3 = data['age'].quantile(0.75)
      IQR = Q3 - Q1
      lower_bound = Q1 - 1.5 * IQR
      upper_bound = Q3 + 1.5 * IQR
      
  • 处理方法

    方法代码示例
    删除异常值data = data[(data['age'] >= 0) & (data['age'] <= 100)]
    截断(Winsorize)from scipy.stats.mstats import winsorize<br>data['income'] = winsorize(data['income'], limits=[0.05, 0.05])
    分箱(Binning)data['age_bin'] = pd.cut(data['age'], bins=[0,18,35,60,100])

3. 重复数据处理
  • 检测与删除

    # 检测完全重复的行
    duplicates = data.duplicated()
    print(f"重复行数量: {duplicates.sum()}")
    
    # 删除重复行(保留第一个出现值)
    data.drop_duplicates(keep='first', inplace=True)
    
  • 部分重复处理(如用户ID重复但信息不同):

    # 按关键字段去重(如用户ID)
    data.drop_duplicates(subset=['user_id'], keep='last', inplace=True)
    

4. 不一致数据修正
  • 格式统一

    # 日期格式标准化
    data['date'] = pd.to_datetime(data['date'], format='mixed')
    
    # 文本大小写统一
    data['category'] = data['category'].str.lower()
    
    # 单位统一(如货币转换)
    data['price'] = data['price'].apply(
        lambda x: x * 6.5 if 'USD' in x else x
    )
    
  • 逻辑校验

    # 检查年龄与出生日期是否一致
    current_year = pd.Timestamp.now().year
    data['calculated_age'] = current_year - data['birth_year']
    invalid_age = data[abs(data['age'] - data['calculated_age']) > 1]
    

三、实战案例:电商订单数据清洗

原始数据问题
import pandas as pd
data = pd.DataFrame({
    'order_id': [101, 102, 103, 104, 105, 106],
    'user_id': [1, 2, 2, 3, 4, None],
    'price': [29.9, 199.0, 199.0, -50.0, 89.9, 120.0],
    'order_date': ['2023-09-01', '01/09/2023', '2023-09-01', '2023-10-32', None, '2023-09-05']
})
清洗步骤
  1. 处理缺失值

    # 填充user_id缺失值(假设新用户ID为999)
    data['user_id'].fillna(999, inplace=True)
    
    # 删除order_date缺失的行
    data.dropna(subset=['order_date'], inplace=True)
    
  2. 修正异常价格

    # 删除价格为负的订单
    data = data[data['price'] > 0]
    
    # 截断价格超过200的订单(假设业务上限为200)
    data['price'] = data['price'].clip(upper=200)
    
  3. 标准化日期格式

    # 转换日期并过滤无效日期(如2023-10-32)
    data['order_date'] = pd.to_datetime(data['order_date'], errors='coerce')
    data.dropna(subset=['order_date'], inplace=True)
    
  4. 去重

    # 按user_id和order_date去重(保留最后一条)
    data.drop_duplicates(subset=['user_id', 'order_date'], keep='last', inplace=True)
    
清洗后数据
order_iduser_idpriceorder_date
101129.92023-09-01
1022199.02023-09-01
105489.9NaT(已删除)
106999120.02023-09-05

四、注意事项

  1. 避免过度清洗:保留合理的数据多样性(如正常的价格波动)。
  2. 记录清洗日志:跟踪每一步操作的影响(如删除了多少行数据)。
  3. 业务规则优先:与领域专家确认异常定义(如“用户年龄>100是否合理”)。
  4. 自动化流水线:对持续更新的数据,使用Pipeline封装清洗步骤:
    from sklearn.pipeline import Pipeline
    
    clean_pipeline = Pipeline([
        ('fill_na', SimpleImputer(strategy='constant', fill_value=999)),
        ('remove_duplicates', DropDuplicates(subset=['user_id'])),
        ('clip_outliers', ColumnTransformer([('clip', FunctionTransformer(lambda x: x.clip(0, 200)), ['price'])])),
    ])
    

数据变换

以下是对数据变换的更紧凑、更细节化的总结,突出核心要点与实用技巧:


一、标准化/归一化:核心差异

方法公式适用场景异常值敏感度Scikit-learn工具
Z-score z = x − μ σ z = \frac{x - \mu}{\sigma} z=σxμ数据近似正态分布,线性模型(SVM、回归)StandardScaler
Min-Max x ′ = x − x min ⁡ x max ⁡ − x min ⁡ x' = \frac{x - x_{\min}}{x_{\max} - x_{\min}} x=xmaxxminxxmin图像像素、神经网络输入层MinMaxScaler
Robust x ′ = x − median I Q R x' = \frac{x - \text{median}}{IQR} x=IQRxmedian存在异常值,非正态分布RobustScaler

关键技巧

  • 树模型(如随机森林、XGBoost)无需标准化,但对特征组合敏感的模型(FM、NN)需要。
  • 归一化到[-1,1]可能对某些激活函数(如tanh)更友好。

二、非线性变换:快速选择

  1. 对数变换:右偏数据(如收入),用np.log1p避免零值。
  2. Box-Cox变换:需数据严格为正,自动优化λ值(scipy.stats.boxcox)。
  3. 分位数变换:强制数据服从均匀/正态分布(QuantileTransformer)。

示例代码

from sklearn.preprocessing import PowerTransformer
pt = PowerTransformer(method='yeo-johnson')  # 兼容零/负值
X_transformed = pt.fit_transform(X)

三、分类变量编码:场景化方案

方法优点缺点适用模型
One-Hot无顺序假设,兼容所有模型高维稀疏,需处理共线性线性模型、神经网络
Target编码保留类别与目标的关系需防过拟合(如交叉验证)树模型、高基数类别
Embedding低维稠密,捕捉语义相似性需预训练或端到端学习深度学习(NLP/推荐系统)

关键点

  • 高基数类别优先用Target EncodingCatBoost内置处理。
  • 树模型可尝试Label Encoding,但需验证类别顺序是否合理。

四、特征工程:高效操作

  1. 数值特征
    • 交叉特征:加减乘除(如电商中“单价×购买量=总金额”)。
    • 分箱:等频分箱(pd.qcut)或等宽分箱(pd.cut),捕捉非线性。
  2. 时间特征
    • 提取周期性(星期、月份),滑动窗口统计(均值、标准差)。
  3. 文本特征
    • 短文本用TF-IDF,长文本用BERT嵌入,高维稀疏时用TruncatedSVD降维。

代码示例

# 时间特征处理
df['hour'] = df['timestamp'].dt.hour
df['is_weekend'] = df['timestamp'].dt.weekday >= 5

五、降维:选择策略

方法核心思想适用场景注意事项
PCA线性投影最大化方差高维数据可视化/去噪需先标准化,可能丢失非线性信息
t-SNE非线性保留局部结构可视化高维聚类计算代价高,不用于特征输入
UMAP平衡速度与局部/全局结构大规模数据可视化/预处理参数敏感,需调参

经验

  • 输入特征>50时优先用PCA,保留95%方差(n_components=0.95)。
  • 避免对树模型使用降维,可能破坏特征重要性。

六、避坑指南

  1. 数据泄露
    • 所有变换必须仅用训练集统计量!用Pipeline确保流程:
      from sklearn.pipeline import make_pipeline
      pipe = make_pipeline(StandardScaler(), SVM())
      pipe.fit(X_train, y_train)
      
  2. 异常值处理
    • 缩尾处理(np.clip)或中位数填充,避免破坏分布。
  3. 评估验证
    • 对KNN、SVM等敏感模型,对比不同缩放方法的分类边界(如决策边界图)。

七、端到端流程

  1. 输入检查:分布(直方图/Q-Q图)、缺失值、异常值。
  2. 数值特征:缩放→非线性变换→分箱。
  3. 分类特征:编码→嵌入(可选)。
  4. 特征构造:领域知识驱动交叉/聚合。
  5. 输出验证:模型在验证集的表现波动是否<5%。

总结:数据变换需与模型特性深度耦合,通过实验迭代优化。记住:“Garbage in, garbage out”——宁可花80%时间在数据准备,而非调参!


特征工程

特征工程:从原始数据到模型燃料的核心技术

特征工程是机器学习的“炼金术”,旨在将原始数据转化为模型可理解的强特征,直接影响模型性能上限。以下是结构化拆解:


一、核心目标与价值
  • 目标:构造高信息量、低冗余、适配模型的特征。
  • 价值
    • 提升模型准确率(如添加用户历史行为统计特征)
    • 降低计算成本(通过降维/特征选择)
    • 增强可解释性(如分箱后的年龄组代替原始值)

二、特征构造:从原始数据中“挖掘金子”
  1. 时间特征

    • 基础字段:年、月、日、小时、星期几、是否节假日
    • 衍生特征:时间间隔(如上次购买距今的天数)、滑动窗口统计(过去7天均值)
    df['purchase_hour'] = df['timestamp'].dt.hour
    df['days_since_last_purchase'] = (current_date - df['last_purchase_date']).dt.days
    
  2. 交互特征(组合特征)

    • 数值交互:加减乘除(如“单价×数量=总价”)
    • 类别交叉:笛卡尔积(如“地区×产品类型”生成组合标签)
    df['price_per_sqmeter'] = df['total_price'] / df['area']
    
  3. 统计聚合特征

    • 单维度统计:用户历史购买金额的均值、最大值、方差
    • 跨表关联:订单表按用户ID聚合的订单数、退货率
    user_stats = orders.groupby('user_id')['amount'].agg(['mean', 'max'])
    
  4. 文本/图像特征

    • 文本:TF-IDF关键词权重、BERT句向量、情感分析得分
    • 图像:边缘特征、颜色直方图、预训练CNN提取的特征图

三、特征变换:提升模型适配性
  1. 分箱(Binning)

    • 等宽分箱:固定区间宽度(如年龄每10年一档)
    • 等频分箱:保证每箱样本量均衡
    • 模型分箱:使用决策树寻找最优分割点
    df['age_bin'] = pd.cut(df['age'], bins=[0,18,35,60,100], labels=['child', 'young', 'adult', 'senior'])
    
  2. 非线性变换

    • 对数变换:处理右偏分布(np.log1p避免零值)
    • Box-Cox变换:自动优化正态性(仅适用于正值)
    • 分位数变换:强制服从指定分布(如正态、均匀)
  3. 高基数类别处理

    • 目标编码(Target Encoding):用目标变量的统计量(如均值)代替类别
    • 频率编码:使用类别出现频率作为特征值
    • 嵌入编码(Embedding):通过神经网络学习低维表示(如Word2Vec)

四、特征选择:剔除噪声与冗余
方法原理适用场景
过滤法基于统计指标(如方差、卡方检验)快速初筛,计算成本低
包裹法通过模型性能迭代选择特征子集精确但计算代价高(递归特征消除)
嵌入法模型训练中自动选择(如L1正则化)与模型耦合,高效

实用技巧

  • 对树模型,直接使用feature_importances_筛选重要性>阈值特征
  • 对线性模型,结合Lasso回归的系数稀疏性做特征剔除

五、自动化特征工程工具
  1. FeatureTools:自动生成跨表聚合特征(如“用户最近3次登录时间标准差”)
  2. TSFresh:针对时间序列自动提取数百种统计特征(如自相关性、傅里叶变换系数)
  3. AutoFeat:自动构造多项式特征并进行显著性筛选
# FeatureTools示例
import featuretools as ft
es = ft.EntitySet()
es = es.entity_from_dataframe(entity_id='users', dataframe=users_df, index='user_id')
features, feature_defs = ft.dfs(entityset=es, target_entity='users')

六、避坑指南与最佳实践
  1. 避免数据泄露

    • 所有统计量(如Target Encoding的均值)必须仅从训练集计算!
    • 使用Pipeline封装预处理与模型训练:
      from sklearn.pipeline import Pipeline
      pipe = Pipeline([('encoder', TargetEncoder()), ('model', RandomForest())])
      
  2. 领域知识驱动

    • 在电商场景中,构造“商品价格与类目平均价格的比值”可能比单纯价格更有效
    • 在风控场景中,组合“申请时间与工作时段的重叠度”作为特征
  3. 迭代验证

    • 通过AB测试对比不同特征组合的模型性能
    • 监控特征稳定性(如PSI指标)防止线上数据分布偏移

七、终极心法
  • “Less is More”:优先构造10个强特征,而非100个弱特征。
  • “Think Like a Model”:理解模型如何利用特征(如线性模型依赖线性可分性,NN偏好稠密低维输入)。
  • “Data First, Algorithm Second”:特征工程提升的上限远高于调参!

总结:特征工程是融合领域知识、数据直觉与工程技巧的艺术。掌握核心方法后,需在业务场景中反复迭代,才能炼出“模型友好”的金牌特征。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2286625.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

01学习预热篇(D6_正式踏入JVM深入学习前的铺垫)

目录 学习前言 一、虚拟机的结构 1. Java虚拟机参数设置 2. java 堆 3. 出入栈 4. 局部变量表 1> 局部变量的剖析 2> 局部变量的回收 5. 操作数栈 1> 常量入栈指令 2> 局部变量值转载到栈中指令 3> 将栈顶值保存到局部变量中指令 6. 帧数据区 7. 栈…

【漫话机器学习系列】068.网格搜索(GridSearch)

网格搜索&#xff08;Grid Search&#xff09; 网格搜索&#xff08;Grid Search&#xff09;是一种用于优化机器学习模型超参数的技术。它通过系统地遍历给定的参数组合&#xff0c;找出使模型性能达到最优的参数配置。 网格搜索的核心思想 定义参数网格 创建一个包含超参数值…

https数字签名手动验签

以bing.com 为例 1. CA 层级的基本概念 CA 层级是一种树状结构&#xff0c;由多个层级的 CA 组成。每个 CA 负责为其下一层级的实体&#xff08;如子 CA 或终端实体&#xff09;颁发证书。层级结构的顶端是 根 CA&#xff08;Root CA&#xff09;&#xff0c;它是整个 PKI 体…

Elasticsearch+kibana安装(简单易上手)

下载ES( Download Elasticsearch | Elastic ) 将ES安装包解压缩 解压后目录如下: 修改ES服务端口&#xff08;可以不修改&#xff09; 启动ES 记住这些内容 验证ES是否启动成功 下载kibana( Download Kibana Free | Get Started Now | Elastic ) 解压后的kibana目…

视频多模态模型——视频版ViT

大家好&#xff0c;这里是好评笔记&#xff0c;公主号&#xff1a;Goodnote&#xff0c;专栏文章私信限时Free。本文详细解读多模态论文《ViViT: A Video Vision Transformer》&#xff0c;2021由google 提出用于视频处理的视觉 Transformer 模型&#xff0c;在视频多模态领域有…

单机伪分布Hadoop详细配置

目录 1. 引言2. 配置单机Hadoop2.1 下载并解压JDK1.8、Hadoop3.3.62.2 配置环境变量2.3 验证JDK、Hadoop配置 3. 伪分布Hadoop3.1 配置ssh免密码登录3.2 配置伪分布Hadoop3.2.1 修改hadoop-env.sh3.2.2 修改core-site.xml3.2.3 修改hdfs-site.xml3.2.4 修改yarn-site.xml3.2.5 …

Ollama windows安装

Ollama 是一个开源项目&#xff0c;专注于帮助用户本地化运行大型语言模型&#xff08;LLMs&#xff09;。它提供了一个简单易用的框架&#xff0c;让开发者和个人用户能够在自己的设备上部署和运行 LLMs&#xff0c;而无需依赖云服务或外部 API。这对于需要数据隐私、离线使用…

Van-Nav:新年,将自己学习的项目地址统一整理搭建自己的私人导航站,供自己后续查阅使用,做技术的同学应该都有一个自己网站的梦想

嗨&#xff0c;大家好&#xff0c;我是小华同学&#xff0c;关注我们获得“最新、最全、最优质”开源项目和高效工作学习方法 Van-Nav是一个基于Vue.js开发的导航组件库&#xff0c;它提供了多种预设的样式和灵活的配置选项&#xff0c;使得开发者可以轻松地定制出符合项目需求…

网易云音乐歌名可视化:词云生成与GitHub-Pages部署实践

引言 本文将基于前一篇爬取的网易云音乐数据, 利用Python的wordcloud、matplotlib等库, 对歌名数据进行深入的词云可视化分析. 我们将探索不同random_state对词云布局的影响, 并详细介绍如何将生成的词云图部署到GitHub Pages, 实现数据可视化的在线展示. 介绍了如何从原始数据…

渲染流程概述

渲染流程包括 CPU应用程序端渲染逻辑 和 GPU渲染管线 一、CPU应用程序端渲染逻辑 剔除操作对物体进行渲染排序打包数据调用Shader SetPassCall 和 Drawcall 1.剔除操作 视椎体剔除 &#xff08;给物体一个包围盒&#xff0c;利用包围盒和摄像机的视椎体进行碰撞检测&#xf…

libOnvif通过组播不能发现相机

使用libOnvif库OnvifDiscoveryClient类&#xff0c; auto discovery new OnvifDiscoveryClient(QUrl(“soap.udp://239.255.255.250:3702”), cb.Build()); 会有错误&#xff1a; end of file or no input: message transfer interrupted or timed out(30 sec max recv delay)…

项目集成GateWay

文章目录 1.环境搭建1.创建sunrays-common-cloud-gateway-starter模块2.目录结构3.自动配置1.GateWayAutoConfiguration.java2.spring.factories 3.pom.xml4.注意&#xff1a;GateWay不能跟Web一起引入&#xff01; 1.环境搭建 1.创建sunrays-common-cloud-gateway-starter模块…

2025年01月28日Github流行趋势

项目名称&#xff1a;maybe 项目地址url&#xff1a;https://github.com/maybe-finance/maybe项目语言&#xff1a;Ruby历史star数&#xff1a;37540今日star数&#xff1a;1004项目维护者&#xff1a;zachgoll, apps/dependabot, tmyracle, Shpigford, crnsh项目简介&#xff…

使用Ollama本地部署DeepSeek R1

前言 DeepSeek是一款开源的智能搜索引擎&#xff0c;能够通过深度学习技术提高搜索的智能化水平。如果你正在寻找一种方式来将DeepSeek部署在本地环境中&#xff0c;Ollama是一个非常方便的工具&#xff0c;它允许你在本地快速部署并管理各种基于AI的模型。 在本篇博客中&…

单片机基础模块学习——超声波传感器

一、超声波原理 左边发射超声波信号&#xff0c;右边接收超声波信号 左边的芯片用来处理超声波发射信号&#xff0c;中间的芯片用来处理接收的超声波信号 二、超声波原理图 T——transmit 发送R——Recieve 接收 U18芯片对输入的N_A1信号进行放大&#xff0c;然后输入给超声…

使用 OpenResty 构建高效的动态图片水印代理服务20250127

使用 OpenResty 构建高效的动态图片水印代理服务 在当今数字化的时代&#xff0c;图片在各种业务场景中广泛应用。为了保护版权、统一品牌形象&#xff0c;动态图片水印功能显得尤为重要。然而&#xff0c;直接在后端服务中集成水印功能&#xff0c;往往会带来代码复杂度增加、…

Elastic Agent 对 Kafka 的新输出:数据收集和流式传输的无限可能性

作者&#xff1a;来 Elastic Valerio Arvizzigno, Geetha Anne 及 Jeremy Hogan 介绍 Elastic Agent 的新功能&#xff1a;原生输出到 Kafka。借助这一最新功能&#xff0c;Elastic 用户现在可以轻松地将数据路由到 Kafka 集群&#xff0c;从而实现数据流和处理中无与伦比的可扩…

Elasticsearch 性能测试工具 Loadgen 之 002——命令行及参数详解

上一讲&#xff0c;我们讲解了 Loadgen 的极简部署方式、配置文件、快速使用从 0 到 1 方式。 本讲&#xff0c;我们主要解读一下 Loadgen 的丰富的命令行及参数含义。 有同学可能会说&#xff0c;上面不是介绍很清楚了吗&#xff1f;但&#xff0c;咱们还是有必要详细中文解读…

书生大模型实战营3

文章目录 L0——入门岛git基础Git 是什么&#xff1f;Git 中的一些基本概念工作区、暂存区和 Git 仓库区文件状态分支主要功能 Git 平台介绍GitHubGitLabGitee Git 下载配置验证下载 Git配置 Git验证 Git配置 Git常用操作Git简易入门四部曲Git其他指令 闯关任务任务1: 破冰活动…

【玩转全栈】----靓号管理系统实现

先赞后看&#xff0c;养成习惯。。。 目录 数据库设置 基本功能 路由器 靓号显示 靓号添加 靓号编辑 视图函数 额外功能 搜索功能 分页 一般逻辑 动态页码 上下页 首尾页 数据库设置 新建一个数据库&#xff08;或者就用之前部门、用户管理的也行&#xff09;&#xff0c;用Dja…