线性代数|机器学习-P21概率定义和Markov不等式

news2024/11/17 12:41:30

文章目录

1. 样本期望和方差

1.1 样本期望 E ( X ) \mathrm{E}(X) E(X)

假设我们有N个样本及概率如下 x 1 → p 1 , x 2 → p 2 , ⋯   , x n → p n x_1\rightarrow p_1,x_2\rightarrow p_2,\cdots,x_n\rightarrow p_n x1p1,x2p2,,xnpn,那么样本期望 E ( X ) E(X) E(X)
E ( X ) = m = ∑ i = 1 N p i x i \begin{equation} \mathrm{E}(X)=m=\sum_{i=1}^Np_ix_i \end{equation} E(X)=m=i=1Npixi

  • 函数期望:
    E ( f ( x ) ) = m = ∑ i = 1 N p i f ( x i ) \begin{equation} \mathrm{E}(f(x))=m=\sum_{i=1}^Np_if(x_i) \end{equation} E(f(x))=m=i=1Npif(xi)

1.2 样本期望 D ( X ) \mathrm{D}(X) D(X)

D ( X ) = σ 2 = E [ ( x i − m ) 2 ] \begin{equation} \mathrm{D}(X)=\sigma^2=\mathrm{E}[(x_i-m)^2] \end{equation} D(X)=σ2=E[(xim)2]

  • 展开可得:
    D ( X ) = ∑ i = 1 N p i ( x i − m ) 2 \begin{equation} \mathrm{D}(X)=\sum_{i=1}^Np_i(x_i-m)^2 \end{equation} D(X)=i=1Npi(xim)2
  • 展开可得:
    = p 1 ( x 1 2 + m 2 − 2 x 1 m ) + p 2 ( x 2 2 + m 2 − 2 x 2 m ) + ⋯ + p n ( x n 2 + m 2 − 2 x n m ) \begin{equation} =p_1(x_1^2+m^2-2x_1m)+p_2(x_2^2+m^2-2x_2m)+\cdots+p_n(x_n^2+m^2-2x_nm) \end{equation} =p1(x12+m22x1m)+p2(x22+m22x2m)++pn(xn2+m22xnm)
    = p 1 ( x 1 2 + x 2 2 + ⋯ + x n 2 ) + ( p 1 + p 2 + ⋯ + p n ) m 2 − 2 m ( p 1 x 1 + p 2 x 2 + ⋯ + p n x n ) \begin{equation} =p_1(x_1^2+x_2^2+\cdots+x_n^2)+(p_1+p_2+\cdots+p_n)m^2-2m(p_1x_1+p_2x_2+\cdots+p_nx_n) \end{equation} =p1(x12+x22++xn2)+(p1+p2++pn)m22m(p1x1+p2x2++pnxn)
  • 因为 p 1 + p 2 + ⋯ + p n = 1 , p 1 x 1 + p 2 x 2 + ⋯ + p n x n = m p_1+p_2+\cdots+p_n=1,p_1x_1+p_2x_2+\cdots+p_nx_n=m p1+p2++pn=1,p1x1+p2x2++pnxn=m
  • E ( X 2 ) = p 1 ( x 1 2 + x 2 2 + ⋯ + x n 2 ) , E ( X ) = m = ∑ i = 1 N p i x i \mathrm{E}(X^2)=p_1(x_1^2+x_2^2+\cdots+x_n^2),\mathrm{E}(X)=m=\sum_{i=1}^Np_ix_i E(X2)=p1(x12+x22++xn2),E(X)=m=i=1Npixi
  • 整理可得:
    D ( X ) = E ( X 2 ) + m 2 − 2 m 2 = E ( X 2 ) − [ E ( X ) ] 2 \begin{equation} D(X)=\mathrm{E}(X^2)+m^2-2m^2=\mathrm{E}(X^2)-[\mathrm{E}(X)]^2 \end{equation} D(X)=E(X2)+m22m2=E(X2)[E(X)]2

2. Markov 不等式&Chebyshev不等式

2.1 Markov不等式公式 概述

假设X是一个均值有限的非负随机变量,均值为 E ( X ) \mathrm{E}(X) E(X),这意味着 P ( X < 0 ) = 0 P(X<0)=0 P(X<0)=0,那么对于任意的正数a,有
P r o b ( X ≥ a ) ≤ E ( X ) a , X i ≥ 0 \begin{equation} Prob(X\ge a)\le\frac{\mathrm{E}(X)}{a},X_i\ge 0 \end{equation} Prob(Xa)aE(X),Xi0

  • 同等公式如下:
    P r o b ( X < a ) ≥ 1 − E ( X ) a \begin{equation} Prob(X< a)\ge 1-\frac{\mathrm{E}(X)}{a} \end{equation} Prob(X<a)1aE(X)

2.2 Markov不等式公式 证明:

我们定义样本分布的概率密度为 f ( x ) f(x) f(x),如下图所述:
在这里插入图片描述

  • 我们可以得到期望E(X)表示如下:
    E ( X ) = ∫ 0 ∞ x f ( x ) d x \begin{equation} \mathrm{E}(X)=\int_{0}^{\infty}xf(x)\mathrm{d}x \end{equation} E(X)=0xf(x)dx
  • 因为 x , f(x)我们定义均大于等于0,所以可以进行缩放,将原来积分从0到正无穷缩小到a到正无穷
    ∫ 0 ∞ x f ( x ) d x ≥ ∫ a ∞ x f ( x ) d x \begin{equation} \int_{0}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}xf(x)\mathrm{d}x \end{equation} 0xf(x)dxaxf(x)dx
  • 因为每个x现在都大于等于a, x ≥ a x\ge a xa,所以可以将系数x缩放为a,即:
    ∫ 0 ∞ x f ( x ) d x ≥ ∫ a ∞ x f ( x ) d x ≥ ∫ a ∞ a f ( x ) d x = a ∫ a ∞ f ( x ) d x \begin{equation} \int_{0}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}xf(x)\mathrm{d}x\ge\int_{a}^{\infty}af(x)\mathrm{d}x=a\int_{a}^{\infty}f(x)\mathrm{d}x \end{equation} 0xf(x)dxaxf(x)dxaaf(x)dx=aaf(x)dx
  • 这里的 ∫ a ∞ f ( x ) d x = P ( X ≥ a ) \int_{a}^{\infty}f(x)\mathrm{d}x=P(X\ge a) af(x)dx=P(Xa),则整理上面公式可得:
    E ( X ) ≥ a P ( X ≥ a ) → P ( X ≥ a ) ≤ E ( X ) a \begin{equation} \mathrm{E}(X)\ge a P(X\ge a)\rightarrow P(X\ge a)\le \frac{\mathrm{E}(X)}{a} \end{equation} E(X)aP(Xa)P(Xa)aE(X)
  • 综上所述,我们得到马尔科夫不等式如下:
    P ( X ≥ a ) ≤ E ( X ) a \begin{equation} P(X\ge a)\le \frac{\mathrm{E}(X)}{a} \end{equation} P(Xa)aE(X)
  • 假设样本和概率表示如下:
Sample x 1 = 1 x_1=1 x1=1 x 2 = 2 x_2=2 x2=2 x 3 = 3 x_3=3 x3=3 x 4 = 4 x_4=4 x4=4 x 5 = 5 x_5=5 x5=5
P p 1 p_1 p1 p 2 p_2 p2 p 3 p_3 p3 p 4 p_4 p4 p 5 p_5 p5

E ( X ) = p 1 x 1 + p 2 x 2 + p 3 x 3 + p 4 x 4 + p 5 x 5 \begin{equation} \mathrm{E}(X)=p_1x_1+p_2x_2+p_3x_3+p_4x_4+p_5x_5 \end{equation} E(X)=p1x1+p2x2+p3x3+p4x4+p5x5

  • 我们假设期望为1 , E ( X ) = 1 \mathrm{E}(X)=1 E(X)=1
    - E ( X ) = p 1 x 1 + p 2 x 2 + p 3 x 3 + p 4 x 4 + p 5 x 5 = 1 \begin{equation} \mathrm{E}(X)=p_1x_1+p_2x_2+p_3x_3+p_4x_4+p_5x_5=1 \end{equation} E(X)=p1x1+p2x2+p3x3+p4x4+p5x5=1
  • X>3的概率如下:
    P r o b ( X ≥ 3 ) ≤ E ( X ) 3 → P r o b ( X ≥ 3 ) ≤ 1 3 \begin{equation} Prob(X\ge 3)\le\frac{\mathrm{E}(X)}{3}\rightarrow Prob(X\ge 3)\le\frac{1}{3}\end{equation} Prob(X3)3E(X)Prob(X3)31
    p 3 + p 4 + p 5 ≤ 1 3 \begin{equation} p_3+p_4+p_5\le\frac{1}{3}\end{equation} p3+p4+p531

2.3 Markov不等式公式 举例:

假设Andrew在平时工作一个星期中平均下来一个星期会犯 4 次错,也就是期望 E ( X ) = 4 \mathrm{E}(X)=4 E(X)=4,那么我们想知道如果Andrew在平时工作一个星期中会犯 10 次以上的错的概率多少?转换到数学公式如下:
E ( X ) = 4 , P r o b ( X > 10 ) ≤ E ( X ) 10 → P r o b ( X > 10 ) ≤ 40 % \begin{equation} \mathrm{E}(X)=4, Prob(X>10)\le \frac{\mathrm{E}(X)}{10}\rightarrow Prob(X>10)\le40\% \end{equation} E(X)=4,Prob(X>10)10E(X)Prob(X>10)40%

  • 也就是说Andrew 在平时一个星期中犯错10次以上的概率不会超过 40 % 40\% 40%

2.4 Chebyshev不等式公式概述:

如果随机变量X的期望 μ \mu μ,方差 σ \sigma σ存在,则对于任意 ϵ > 0 \epsilon >0 ϵ>0,有如下公式:
P ( ∣ X − μ ∣ ≥ ϵ ) ≤ σ 2 ϵ 2 \begin{equation} P{(|X-\mu|\ge \epsilon)}\le \frac{\sigma^2}{\epsilon^2} \end{equation} P(Xμϵ)ϵ2σ2

2.5 Chebyshev不等式公式证明:

我们已经证明了马尔科夫不等式表示如下:
P ( Y ≥ a ) ≤ E ( Y ) a \begin{equation} P(Y\ge a)\le \frac{\mathrm{E}(Y)}{a} \end{equation} P(Ya)aE(Y)

  • 这里我们令 Y = ( X − μ ) 2 , a = ϵ 2 Y=(X-\mu)^2,a=\epsilon^2 Y=(Xμ)2,a=ϵ2代入到公式中:
    P ( ( X − μ ) 2 ≥ ϵ 2 ) ≤ E ( ( X − μ ) 2 ) ϵ 2 \begin{equation} P((X-\mu)^2\ge \epsilon^2)\le \frac{\mathrm{E}((X-\mu)^2)}{\epsilon^2} \end{equation} P((Xμ)2ϵ2)ϵ2E((Xμ)2)
  • 我们可以发现 P ( ( X − μ ) 2 ≥ ϵ 2 ) P((X-\mu)^2\ge \epsilon^2) P((Xμ)2ϵ2)等效于 P ( ∣ X − μ ∣ ≥ ϵ ) P(|X-\mu|\ge \epsilon) P(Xμϵ), σ 2 = E ( ( X − μ ) 2 ) \sigma^2=\mathrm{E}((X-\mu)^2) σ2=E((Xμ)2)
  • 整理上述公式可得切尔雪夫不等式结果:
    P ( ∣ X − μ ∣ ≥ ϵ ) ≤ σ 2 ϵ 2 \begin{equation} P(|X-\mu|\ge \epsilon)\le \frac{\sigma^2}{\epsilon^2} \end{equation} P(Xμϵ)ϵ2σ2

3. 协方差矩阵

Ω \Omega Ω为样本空间,P是定义在 Ω \Omega Ω的事件族 Σ \Sigma Σ上的概率,换句话来说, Ω , Σ , P \Omega,\Sigma,P Ω,Σ,P是个概率空间;若X与Y定义在 Ω \Omega Ω上两个实数随机变量,期望分别为:
E ( X ) = ∫ Ω X d P = μ ; E ( Y ) = ∫ Ω Y d P = v ; \begin{equation} \mathrm{E}(X)=\int_{\Omega}X\mathrm{d}P=\mu;\mathrm{E}(Y)=\int_{\Omega}Y\mathrm{d}P=v; \end{equation} E(X)=ΩXdP=μ;E(Y)=ΩYdP=v;

  • 则两者间的协方差定义为:
    c o v ( X , Y ) = E [ ( X − μ ) ( Y − v ) ] \begin{equation} \mathrm{cov}(X,Y)=\mathrm{E}[(X-\mu)(Y-v)] \end{equation} cov(X,Y)=E[(Xμ)(Yv)]

3.1 举例

[感觉老师举的例子不好]
假设我们有两个硬币,X,Y 正反的概率均为0.5,那么概率矩阵为:

  • 当两个硬币单独扔下去时,概率矩阵如下:
Sample x 1 = 正 x_1=正 x1= x 2 = 反 x_2=反 x2=
y 1 = 正 y_1=正 y1= 1 4 \frac{1}{4} 41 1 4 \frac{1}{4} 41
y 2 = 反 y_2=反 y2= 1 4 \frac{1}{4} 41 1 4 \frac{1}{4} 41
  • 当两个硬币粘贴在一起扔下去时,概率矩阵如下:
Sample x 1 = 正 x_1=正 x1= x 2 = 反 x_2=反 x2=
y 1 = 正 y_1=正 y1= 1 2 \frac{1}{2} 21 0 0 0
y 2 = 反 y_2=反 y2= 0 0 0 1 2 \frac{1}{2} 21
  • 当三个硬币单独扔下去时,两个硬币用平面表示,三个硬币用立方体表示
    P H H H = 1 8 \begin{equation} P_{HHH}=\frac{1}{8} \end{equation} PHHH=81
    在这里插入图片描述

3.2 Python 代码

C O V ( X , Y ) = 0.14516142787498987 \mathrm{COV}(X,Y)= 0.14516142787498987 COV(X,Y)=0.14516142787498987

import numpy as np
import matplotlib.pyplot as plt

# Generate some data
x = np.random.rand(100)
y = 2 * x + np.random.normal(0, 0.1, 100)  # y is roughly 2 times x with some noise

# Calculate the covariance matrix
cov_matrix = np.cov(x, y)

# Extract the covariance value
cov_xy = cov_matrix[0, 1]

print(f"Covariance between x and y: {cov_xy}")

# Plotting the data
plt.scatter(x, y)
plt.title('Scatter plot of x and y')
plt.xlabel('x')
plt.ylabel('y')
plt.show()

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1884338.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

从架构设计的角度分析ios自带网络库和AFNetworking

总结&#xff08;先说明文章分析出的一些‘认知’&#xff09; 从本文中&#xff0c;我们可以总结出一些框架设计上的“认知”&#xff1a; 对于通用的常规配置信息方面的设计&#xff0c;我们可以通过定义一个“类似于NSURLSessionConfiguration、NSURLRequest”的类来完成设…

41、web基础和http协议

web基础与http协议 一、web web&#xff1a;就是我们所说得页面&#xff0c;打开网页展示得页面。&#xff08;全球广域网&#xff0c;万维网&#xff09; world wide webwww 分布式图形信息系统 http&#xff1a;超文本传输协议 https&#xff1a;加密的超文本传输协议…

上位机图像处理和嵌入式模块部署(mcu 项目1:固件编写)

【 声明&#xff1a;版权所有&#xff0c;欢迎转载&#xff0c;请勿用于商业用途。 联系信箱&#xff1a;feixiaoxing 163.com】 说完了上位机的开发&#xff0c;接下来就是固件的开发。前面我们说过&#xff0c;目前使用的开发板是极海apm32f103的开发板。它自身包含了iap示例…

人工智能--目标检测

欢迎来到 Papicatch的博客 文章目录 &#x1f349;引言 &#x1f349;概述 &#x1f348;目标检测的主要流程通常包括以下几个步骤 &#x1f34d;数据采集 &#x1f34d;数据预处理 &#x1f34d;特征提取 &#x1f34d;目标定位 &#x1f34d;目标分类 &#x1f348;…

千益畅行,旅游卡,如何赚钱?

​ 赚钱这件事情&#xff0c;只有自己努力执行才会有结果。生活中没有幸运二字&#xff0c;每个光鲜亮丽的背后&#xff0c;都是不为人知的付出&#xff01; #旅游卡服务#

【分布式数据仓库Hive】Hive的安装配置及测试

目录 一、数据库MySQL安装 1. 检查操作系统是否有MySQL安装残留 2. 删除残留的MySQL安装&#xff08;使用yum&#xff09; 3. 安装MySQL依赖包、客户端和服务器 4. MySQL登录账户root设置密码&#xff0c;密码值自定义&#xff0c;这里是‘abc1234’ 5. 启动MySQL服务 6…

element plus 日期组件中英文切换

现在的项目需要做中英文切换功能&#xff0c;我发现element plus 只有日期组件不能转换&#xff0c;然后上网查了一下并结合自己的方法写了出来。 代码&#xff1a; <template><!-- 日期框组件 --><div class"time-box">//:locale"locale&qu…

嵌入式UI开发-lvgl+wsl2+vscode系列:5、事件(Events)

一、前言 这节进行事件的总结&#xff0c;通过事件回调方式将用户和ui的交互行为绑定组合起来。 二、事件示例 1、示例1&#xff08;点击事件&#xff09; #include "../lv_examples.h" #if LV_BUILD_EXAMPLES && LV_USE_SWITCHstatic void event_cb(lv_…

解锁机器学习算法面试挑战课程

在这个课程中&#xff0c;我们将从基础知识出发&#xff0c;系统学习机器学习与算法的核心概念和实践技巧。通过大量案例分析和LeetCode算法题解&#xff0c;帮助您深入理解各种面试问题&#xff0c;并掌握解题技巧和面试技巧。无论是百面挑战还是LeetCode算法题&#xff0c;都…

华为智能驾驶方案剖析

华为ADS智驾方案始终坚持激光雷达毫米波雷达摄像头的多传感器融合路线&#xff0c;行业降本压力下硬件配置从超配逐步转向贴合实际需求&#xff0c;带动整体硬件成本下降。 1)单车传感器数量呈现下降趋势&#xff0c;包括激光雷达从3个减配至1个、毫米波雷达从6R减配至3R、摄像…

firewalld防火墙概念(形态、分类、区域)相关综合示例

目录 防火墙 概念 形态 内核态&#xff1a;netfilter 用户态&#xff1a;iptables、firewalld 防火墙分类 firewalld网络区域 区域划分 使用图形化界面配置防火墙 端口配置 协议配置 源端口配置 永久配置恢复默认防火墙规则 配置防火墙相关命令 示例 实验环境 …

谷粒商城篇章10 -- P262-P291/P295-P310 -- 订单服务(支付)【分布式高级篇七】

目录 1 页面环境搭建 1.1 静态资源上传到nginx 1.2 SwitchHosts增加配置 1.3 网关配置 1.4 订单模块基础配置 1.4.1 引入 thymeleaf 依赖 1.4.2 application.yml配置 1.4.3 bootstrap.properties配置 1.4.4 开启nacos注册发现和远程调用 1.5 修改各个页面的静态资源路…

Hadoop权威指南-读书笔记-01-初识Hadoop

Hadoop权威指南-读书笔记 记录一下读这本书的时候觉得有意思或者重要的点~ 第一章—初识Hadoop Tips&#xff1a; 这个引例很有哲理嘻嘻&#x1f604;&#xff0c;道出了分布式的灵魂。 1.1 数据&#xff01;数据&#xff01; 这一小节主要介绍了进入大数据时代&#xff0c;面…

使用简鹿音频格式转换器轻松将MP3转换为WAV音频

在音频处理领域&#xff0c;不同的格式有其特定的应用场景。有时&#xff0c;我们可能需要将MP3格式的音频转换为WAV格式&#xff0c;以满足特定的播放或编辑需求。简鹿音频格式转换器就是一款能够帮助我们轻松实现这一转换目标的工具。 为什么选择 WAV 格式&#xff1f; WAV …

CentOS中使用SSH远程登录

CentOS中使用SSH远程登录 准备工作SSH概述SSH服务的安装与启动建立SSH连接SSH配置文件修改SSH默认端口SSH文件传输 准备工作 两台安装CentOS系统的虚拟机 客户机&#xff08;192.168.239.128&#xff09; 服务器&#xff08;192.168.239.129&#xff09; SSH概述 Secure S…

【RabbitMQ实战】Springboot 整合RabbitMQ组件,多种编码示例,带你实践 看完这一篇就够了

提示&#xff1a;文章写完后&#xff0c;目录可以自动生成&#xff0c;如何生成可参考右边的帮助文档 文章目录 前言一、对RabbitMQ管理界面深入了解1、在这个界面里面我们可以做些什么&#xff1f; 二、编码练习&#xff08;1&#xff09;使用direct exchange(直连型交换机)&a…

【深圳大学算法设计与分析】 实验六 最大流应用问题 FF -> EK -> Dinic

目录 一、实验目的&#xff1a; 二、内容&#xff1a;棒球赛问题 三、实验要求 四、提交要求 ———————— 问题分析解释&#xff1a; ———————— 算法简解&#xff1a; Ford–Fulkerson 增广 Edmonds–Karp 算法 Dinic算法 Dinic和EK的区别&#xff1a; …

DDPM(Denoising Diffusion Probabilistic Models)

DDPM&#xff08;Denoising Diffusion Probabilistic Models&#xff09; 笔记来源&#xff1a; 1.Denoising Diffusion Probabilistic Models 2.大白话AI | 图像生成模型DDPM | 扩散模型 | 生成模型 | 概率扩散去噪生成模型 3.pytorch-stable-diffusion 扩散模型正向过程&am…

Kafka-服务端-网络层-源码流程

整体架构如下所示&#xff1a; responseQueue不在RequestChannel中&#xff0c;在Processor中&#xff0c;每个Processor内部有一个responseQueue 客户端发送的请求被Acceptor转发给Processor处理处理器将请求放到RequestChannel的requestQueue中KafkaRequestHandler取出reque…

易校网校园综合跑腿小程序源码修复运营版

简介&#xff1a; 易校网校园综合跑腿小程序源码修复运营版&#xff0c;带服务端客户端前端文档说明。 源码安装方法&#xff1a; 需要准备小程序服务号 服务器 备案域名 校园网跑腿小程序源码需要准备 1.小程序 2.服务器&#xff08;推荐配置2h4g3m&#xff09; 3.域名…