【简博士统计学习方法】第1章:3. 统计学习方法的三要素

news2025/1/9 0:14:10

3. 统计学习方法的三要素

3.1 监督学习的三要素

3.1.1 模型

假设空间(Hypothesis Space):所有可能的条件概率分布或决策函数,用 F \mathcal{F} F表示。

  • 若定义为决策函数的集合: F = { f ∣ Y = f ( X ) } \mathcal{F}=\{f|Y=f(X)\} F={fY=f(X)}.
  • F \mathcal{F} F由一个参数向量决定的函数族构成: F = { f ∣ Y = f θ ( X ) , θ ∈ R n } \mathcal{F}=\{f|Y=f_{\theta}(X),\theta\in\mathbb{R}^n\} F={fY=fθ(X),θRn} n n n维欧氏空间).
  • 所有可能的参数向量组成了参数空间 Θ = { θ ∣ θ ∈ R n } \Theta=\{\theta|\theta\in\mathbb{R}^n\} Θ={θθRn}.

【例】线性回归

  • 实例: x = ( x ( 1 ) , x ( 2 ) , ⋯   , x ( n ) ) T x=\left(x^{(1)}, x^{(2)}, \cdots, x^{(n)}\right)^{T} x=(x(1),x(2),,x(n))T.
  • 决策函数: f ( x ) = w ( 1 ) x ( 1 ) + w ( 2 ) x ( 2 ) + ⋯ + w ( n ) x ( n ) + b f(x)=w^{(1)} x^{(1)}+w^{(2)} x^{(2)}+\cdots+w^{(n)} x^{(n)}+b f(x)=w(1)x(1)+w(2)x(2)++w(n)x(n)+b.
  • 向量形式: f ( x ) = w ⋅ x + b f(x)=w \cdot x+b f(x)=wx+b,其中, w = ( w ( 1 ) , w ( 2 ) , ⋯   , w ( n ) ) w=\left(w^{(1)}, w^{(2)}, \cdots, w^{(n)}\right) w=(w(1),w(2),,w(n)).

条件概率形式:

  • 若定义为条件概率的集合: F = { P ∣ P ( Y ∣ X ) } \mathcal{F}=\{P|P(Y|X)\} F={PP(YX)}.
  • F \mathcal{F} F由一个参数向量决定的条件概率分布族构成:
    F = { P ∣ P θ ( Y ∣ X ) , θ ∈ R n } \mathcal{F}=\{P|P_{\theta}(Y|X),\theta\in\mathbb{R}^n\} F={PPθ(YX),θRn}

【注】 exp ⁡ ( f ( x ) ) \exp(f(x)) exp(f(x))是指 e f ( x ) e^{f(x)} ef(x).

3.1.2 策略

如何在假设空间里选择一个最优的模型,就需要用到第二个要素,策略

3.1.2.1 概念
  • 损失函数:度量模型一次预测的好坏,记作 L ( Y , f ( X ) ) L(Y,f(X)) L(Y,f(X)).
  • 风险函数:度量平均意义下模型预测的好坏。
    R exp ⁡ ( f ) = E P [ L ( Y , f ( X ) ) ] = ∫ X × Y L ( y , f ( x ) ) P ( x , y ) d x d y \begin{aligned} R_{\exp }(f) & =E_{P}[L(Y, f(X))] \\ & =\int_{\mathcal{X} \times \mathcal{Y}} L(y, f(x)) P(x, y) d x d y \end{aligned} Rexp(f)=EP[L(Y,f(X))]=X×YL(y,f(x))P(x,y)dxdy
    exp代表的是期望的意思,R代表的是风险,此处风险函数就是对损失函数求了一下概率期望,联合分布 P ( X , Y ) P(X,Y) P(X,Y)并不是已知,所以选择下面的经验风险(估计值)来替代风险函数。所以这个沿着鬼笛卡尔积做曲线积分的这个式子根本不需要看懂,因为这玩意本身就是不能算出来的
  • 经验风险:模型 f ( X ) f(X) f(X)关于训练集的平均损失。
    R e m p ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) R_{e m p}(f)=\frac{1}{N} \sum\limits_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) Remp(f)=N1i=1NL(yi,f(xi))
    emp指的是经验,R指的是风险。

其中训练集 T = { ( x 1 , y 1 ) , ( x 2 , y 2 ) ⋯   , ( x N , y N ) } T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right) \cdots,\left(x_{N}, y_{N}\right)\right\} T={(x1,y1),(x2,y2),(xN,yN)}

【注】数学期望
数学期望可以看作是随机变量的加权平均,其中加权系数是相应事件发生的概率。

  • 离散型随机变量的期望
    如果一个离散型随机变量 X X X具有可能取值 x 1 , x 2 , ⋯   , x n x_1,x_2,\cdots,x_n x1,x2,,xn,且对应的概率分别为 P ( x 1 ) , P ( x 2 ) , ⋯   , P ( x n ) P(x_1),P(x_2),\cdots,P(x_n) P(x1),P(x2),,P(xn),那么 X X X的数学期望 E ( X ) E(X) E(X)由以下公式给出:
    E ( X ) = ∑ i = 1 n x i P ( x i ) E(X)=\sum\limits_{i=1}^{n} x_{i} P\left(x_{i}\right) E(X)=i=1nxiP(xi)
    其中, x i x_i xi是随机变量 X X X可能取的值, P ( x i ) P(x_i) P(xi) X X X取值 x i x_i xi的概率。
  • 连续型随机变量的期望
    对于一个连续型随机变量 X X X,它的概率密度函数为 f ( x ) f(x) f(x),则期望 E ( X ) E(X) E(X)定义为:
    E ( X ) = ∫ − ∞ ∞ x f ( x ) d x E(X)=\int_{-\infty}^{\infty} x f(x) d x E(X)=xf(x)dx
    其中, f ( x ) f(x) f(x)是随机变量 X X X的概率密度函数,表示在某个区间内取值的概率密度。
3.1.2.2 四种常见的损失函数
  • 0-1损失函数(0-1 Loss Function)
    L ( Y , f ( X ) ) = { 1 , Y ≠ f ( X ) 0 , Y = f ( X ) L(Y, f(X))=\left\{\begin{array}{ll} 1, & Y \neq f(X) \\ 0, & Y=f(X) \end{array}\right. L(Y,f(X))={1,0,Y=f(X)Y=f(X)
    0-1损失函数主要针对分类问题。当真实值 Y Y Y和预测值 f ( X ) f(X) f(X)不相等的时候取1,当真实值 Y Y Y和预测值 f ( X ) f(X) f(X)相等的时候取0。这也是一种示性函数,后面的朴素贝叶斯会用到这种损失函数。

【注】示性函数:示性函数,也叫做特征函数、指示函数,是一个数学函数,通常用于描述集合中元素是否满足某个特定性质。

  • 平方损失函数(Quadratic Loss Function)
    L ( Y , f ( X ) ) = ( Y − f ( X ) ) 2 L(Y, f(X))=(Y-f(X))^{2} L(Y,f(X))=(Yf(X))2
    平方损失函数主要针对回归问题,它度量真实值 Y Y Y与预测值 f ( X ) f(X) f(X)之间的距离。K邻近模型会用到这种函数。
  • 绝对损失函数(Absolute Loss Function)
    L ( Y , f ( X ) ) = ∣ Y − f ( X ) ∣ L(Y, f(X))=|Y-f(X)| L(Y,f(X))=Yf(X)
    绝对损失函数主要针对回归问题,它度量真实值 Y Y Y与预测值 f ( X ) f(X) f(X)之间的距离。K邻近模型会用到这种函数。
  • 对数损失函数(Logarithmic Loss Function)
    L ( Y , P ( Y ∣ X ) ) = − log ⁡ P ( Y ∣ X ) L(Y, P(Y | X))=-\log P(Y | X) L(Y,P(YX))=logP(YX)
    对数损失函数主要针对概率模型,因为此处模型用的是条件概率分布的形式。它涉及到的模型是给定 X X X条件下 Y Y Y的条件概率分布,也就是用条件概率分布模型,所以对数损失函数针对概率模型。
3.1.2.3 风险最小化

根据大数定律,当 N → ∞ N\to\infty N时,
R emp  ( f ) = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) ⟶ R exp ⁡ ( f ) = E P [ L ( Y , f ( X ) ) ] , N → ∞ R_{\text {emp }}(f)=\frac{1}{N} \sum\limits_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) \longrightarrow R_{\exp }(f)=E_{P}[L(Y, f(X))], \quad N \rightarrow \infty Remp (f)=N1i=1NL(yi,f(xi))Rexp(f)=EP[L(Y,f(X))],N,也就是当 N → ∞ N\to\infty N时,经验损失趋近于风险函数。所以在一定程度上,用经验损失作为风险函数的估计值是合理的,但是在现实生活中样本容量 N N N一般是有限的,有的时候甚至会很小,所以仅仅用经验风险来估计风险函数效果并不理想,所以需要对其进行一定的矫正。

【注】大数定律
大数定律是概率论中的一个重要定理,描述了在大量独立、同分布的随机试验中,随着试验次数的增加,样本均值会趋近于期望值。简单来说,就是随着实验次数的增加,实验结果的平均值越来越接近期望值。大数定律反映了“偶然性”对长期平均结果的影响逐渐减小。
大数定律主要有两种形式:弱大数定律强大数定律

  • 弱大数定律(Weak Law of Large Numbers,WLLN):
    弱大数定律表明,随着独立同分布随机变量数量的增加,样本均值会以较高的概率收敛到期望值。具体来说,给定一组独立同分布的随机变量,其样本均值 X ˉ n = 1 n ∑ i = 1 n X i \bar{X}_{n}=\frac{1}{n} \sum\limits_{i=1}^{n} X_{i} Xˉn=n1i=1nXi会以概率收敛于期望值 μ = E [ X i ] \mu=E[X_i] μ=E[Xi],即
    P ( lim ⁡ n → ∞ X ˉ n = μ ) = 1 P\left(\lim\limits _{n \rightarrow \infty} \bar{X}_{n}=\mu\right)=1 P(nlimXˉn=μ)=1
    这意味着随着试验次数增加,样本均值会以高概率接近理论期望值。
    强大数定律(Strong Law of Large Numbers,SLLN):
    强大数定律进一步加强了这一结果,它表明不仅样本均值几乎一定会收敛于期望值,而且这种收敛是几乎确定的,即在几乎所有的情况下,样本均值都会趋近于期望值。具体来说,给定独立同分布随机变量 X 1 , X 2 , X 3 , ⋯ X_1,X_2,X_3,\cdots X1,X2,X3, ,强大数定律表明:
    P ( lim ⁡ n → ∞ X ˉ n = μ ) = 1 P\left(\lim _{n \rightarrow \infty} \bar{X}_{n}=\mu\right)=1 P(nlimXˉn=μ)=1
    这意味着在几乎所有的实验中,随着实验次数趋近于无穷大,样本均值会准确地收敛到期望值。

直观地说,大数定律的核心思想是:在重复实验的情况下,随着实验次数的增加,观察到的结果会趋向于理论预测的结果。这就像是抛硬币实验,当抛掷次数很少时,正面和反面的比例可能会偏离 50%,但随着投掷次数的增加,正面和反面的比例会趋近于 50%。

  • 经验风险最小化
    min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) \min _{f \in \mathcal{F}} \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right) fFminN1i=1NL(yi,f(xi))
    当样本容量 N N N足够大的时候,我们可以认为经验风险是风险函数的一个估计值,这时候只需要选取使经验风险最小的模型即可。
  • 结构风险
    R s r m = 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) R_{s r m}=\frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right)+\lambda J(f) Rsrm=N1i=1NL(yi,f(xi))+λJ(f)
    当样本容量 N N N比较小的时候,仅仅使经验风险最小化,容易造成过拟合的现象(过拟合后面会讲到),于是引入结构风险概念,结构风险就是在经验风险的基础上加了一个惩罚项 λ J ( f ) \lambda J(f) λJ(f),这个惩罚项是针对于模型的复杂度的 J ( f ) J(f) J(f),模型越复杂 J ( f ) J(f) J(f)就越大,模型越简单 J ( f ) J(f) J(f)就越小,所以结构风险平衡了经验风险和模型的复杂度。
  • 结构风险最小化
    min ⁡ f ∈ F 1 N ∑ i = 1 N L ( y i , f ( x i ) ) + λ J ( f ) \min _{f \in \mathcal{F}} \frac{1}{N} \sum_{i=1}^{N} L\left(y_{i}, f\left(x_{i}\right)\right)+\lambda J(f) fFminN1i=1NL(yi,f(xi))+λJ(f)
    结构风险最小化则是选取一个使结构风险最小的模型。

关于监督学习的策略,追根究底就是选取一个目标函数,或者是经验风险,或者是结构风险,通过优化这个目标函数,达到一个学习模型的目的。

3.1.2.4 算法
  • 算法:如何求解最优模型的问题;
  • 若优化问题存在显式解析解,算法简易;
  • 通常不存在解析解,需要数值计算方法,比如梯度下降法。

3.2 无监督学习的三要素

它处理的是无标记数据。

  • 模型:函数 z = g θ ( x ) z=g_{\theta}(x) z=gθ(x) z z z是来自于隐式结构空间(隐藏在数据中的统计分布),条件概率分布 P θ ( z ∣ x ) P_{\theta}(z|x) Pθ(zx)或条件概率分布 P θ ( x ∣ z ) P_{\theta}(x|z) Pθ(xz).(参数空间是所有可能的参数 θ \theta θ
  • 策略:优化目标函数。
  • 算法:通常是迭代算法。

【注】参数空间:无监督学习中的参数空间是指模型可以探索的所有可能的参数组合。无论是在聚类、降维、特征学习等任务中,模型的超参数和训练过程中的设置都会定义一个参数空间。优化这个参数空间,选择合适的参数组合,是提升无监督学习模型性能的关键。大白话解释就是调参,比如K-means聚类的参数K或者深度学习模型的其他参数。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2273483.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

牛客网刷题 ——C语言初阶(2分支和循环-for)——打印菱形

1. 题目描述 用C语言在屏幕上输出以下图案: 2. 思路 我是先上手,先把上半部分打印出来,然后慢慢再来分析,下面这是我先把整个上半部分打印出来,因为空格不方便看是几个,这里先用&代替空格了 然后这里…

STM32——系统滴答定时器(SysTick寄存器详解)

文章目录 1.SysTick简介2.工作原理3.SysTick寄存器4.代码延时逻辑5.附上整体代码6.一些重要解释 1.SysTick简介 Cortex-M处理器内集成了一个小型的名为SysTick(系统节拍)的定时器,它属于NVIC的一部分,且可以产生 SysTick异常(异常类型#15)。SysTick为简单的向下计数的24位计数…

《Opencv》信用卡信息识别项目

目录 一、项目介绍 二、数据材料介绍 1、模板图片(1张) 2、需要处理的信用卡图片(5张) 三、实现过程 1、导入需要用到的库 2、设置命令行参数 3、模板图像中数字的定位处理 4、信用卡图像处理 5、模板匹配 四、总结 一…

密码学科普

1 信息传输中的安全隐患 1. 窃听 解决方案:明文加密,X只能窃听到密文 2. 假冒 解决方案:消息认证码或者数字签名 3. 篡改 解决方案:消息认证码或者数字签名 4. 事后否认 解决方案:数字签名 2 对称加密/非对称加密 1…

复合机器人助力手机壳cnc加工向自动化升级

在当今竞争激烈的制造业领域,如何提高生产效率、降低成本、提升产品质量,成为众多企业面临的关键挑战。尤其是在手机壳 CNC 加工这一细分行业,随着市场需求的持续增长,对生产效能的要求愈发严苛。而复合机器人的出现,正…

爬虫学习记录

1.概念 通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程 通用爬虫:抓取的是一整张页面数据聚焦爬虫:抓取的是页面中的特定局部内容增量式爬虫:监测网站中数据更新的情况,只会抓取网站中最新更新出来的数据 robots.txt协议: 君子协议,网站后面添加robotx.txt…

黑马头条平台管理实战

黑马头条 08平台管理 1.开始准备和开发思路1.1.开发网关1.2编写admin-gateway 代码 2.开发登录微服务2.1编写登录微服务 3.频道管理4.敏感词管理5.用户认证审核6.自媒体文章人工审核99. 最后开发中碰到的问题汇总1.关于nacos 配置 问题2.在开发频道管理新增频道后端无法接收到前…

实验四 数组和函数

实验名称 实验四 数组和函数 实验目的 (1)掌握一维、二维数组以及字符数组的定义、元素引用和编程方法。 (2)掌握字符串常用程序的设计方法。 (3)掌握函数定义和调用的方法,以及函数参数传…

Idea(中文版) 项目结构/基本设置/设计背景

目录 1. Idea 项目结构 1.1 新建项目 1.2 新建项目的模块 1.3 新建项目模块的包 1.4 新建项目模块包的类 2. 基本设置 2.1 设置主题 2.2 设置字体 2.3 设置注释 2.4 自动导包 2.5 忽略大小写 2.6 设置背景图片 3. 项目与模块操作 3.1 修改类名 3.2 关闭项目 1. I…

Android Audio基础(53)——PCM逻辑设备Write数据

1. 前言 本文,我们将以回放(Playback,播放音频)为例,讲解PCM Data是如何从用户空间到内核空间,最后传递到Codec。 在 ASoC音频框架简介中,我们给出了回放(Playback)PCM数据流示意图。: 对于Linux来说,由于分为 user space 和kernel space,而且两者之间数据不能随便…

Android Audio基础(54)——数字音频接口 I2S、PCM(TDM) 、PDM

1. 概述 本文介绍的数字音频接口全部是硬件接口,是实际的物理连线方式,即同一个PCB板上IC芯片和IC芯片之间的通讯协议。 PCM、PDM也可以用于表示音频编码格式,。编码格式是指模拟信号数字化的方式。 I2S和PCM(TDM)接口传输的数据是PCM格式的音频数据。这两种协议是最为常见…

HDFS架构原理

一、HDFS架构整体概述 HDFS是Hadoop Distribute File System 的简称,意为:Hadoop分布式文件系统。HDFS是Hadoop核心组件之一,作为大数据生态圈最底层的分布式存储服务而存在。HDFS解决的问题就是大数据如何存储,它是横跨在多台计算机上的文件…

windows11(或centos7)安装nvidia显卡驱动、CUDA、cuDNN

本文是我瞎搞时写的问题汇总及参考文献,记录了一些问题解决的进度及对问题的思考。 最近一次更新时间:2025年1月4日 一、安装或更新nvidia显卡驱动 首先,需要确保你的设备安装了最新的显卡驱动。 (1)centos7安装显…

2025-01-04 Unity插件 YodaSheet2 —— 基础用法

文章目录 环境配置1 创建 YadeSheetData2 读取方式2.1 表格读取2.2 列表读取 3 自定义设置3.1 修改代码生成位置3.2 添加列表支持3.2.1 修改 DataTypeMapper.cs3.2.2 修改 SheetDataExtensions.cs3.2.3 修改 CodeGeneratorEditor.cs3.2.4 测试 ​ 官方文档: Unity …

STM32 拓展 RTC(实时时钟)

RTC简介 RTC(Real Time Clock,实时时钟)。是一个掉电后仍然可以继续运行的独立定时器。 RTC模块拥有一个连续计数的计数器,在相应的软件配置下,可以提供时钟日历的功能。修改计数器的值可以重新设置当前时间和日期 RTC还包含用于管理低功耗模式的自动唤醒单元。 RTC实质…

微信小程序实现登录注册

文章目录 1. 官方文档教程2. 注册实现3. 登录实现4. 关于作者其它项目视频教程介绍 1. 官方文档教程 https://developers.weixin.qq.com/miniprogram/dev/framework/路由跳转的几种方式: https://developers.weixin.qq.com/miniprogram/dev/api/route/wx.switchTab…

[大模型开源]SecGPT 网络安全大模型

模型介绍 SecGPT的愿景是将人工智能技术引入网络安全领域,以提高网络防御的效率和效果。其使命是推动网络安全智能化,为社会提供更安全的数字生活环境。 ① SecGPT开源地址:https://github.com/Clouditera/secgpt② 模型地址:htt…

解决“KEIL5软件模拟仿真无法打印浮点数”之问题

在没有外部硬件支持时,我们会使用KEIL5软件模拟仿真,这是是仿真必须要掌握的技巧。 1、点击“Project”,然后点击“Options for target 项目名字”,点击“Device”,选择CPU型号。 2、点击“OK” 3、点击“Target”,勾选“Use Mi…

C语言 扫雷程序设计

目录 1.main函数 2.菜单打印menu函数 3.游戏game函数 4.宏定义 5.界面初始化 6.打印界面 7.设置雷 8.统计排查坐标周围雷的个数 9.排查雷 10.总代码 test.c代码 game.h代码 game.c代码 结语: 一个简单的扫雷游戏,通过宏定义可以修改行列的…

Excel 技巧03 - 如何对齐小数位数? (★)如何去掉小数点?如何不四舍五入去掉小数点?

这几个有点儿关联,我都给放到一起了,不影响大家分别使用。 目录 1,如何对齐小数位数? 2,如何去掉小数点? 3,如何不四舍五入去掉小数点? 1,如何对齐小数位数&#xff…