【概率论】期末复习笔记:参数估计

news2024/11/15 20:52:59

一、点估计

1. 估计量的概念

点估计:设总体 X X X的分布函数为 F ( x ; θ 1 , θ 2 , ⋯   , θ l ) F(x;\theta_1,\theta_2,\cdots,\theta_l) F(x;θ1,θ2,,θl),其中 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl是待估计的未知参数, ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)是来自总体 X X X的样本, ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn)是相应的样本值,点估计问题就是要构造 l l l个适当的统计量 θ ^ i ( X 1 , X 2 , ⋯   , X n )   ( i = 1 , 2 , ⋯   , l ) \hat{\theta}_i(X_1,X_2,\cdots,X_n)\,(i=1,2,\cdots,l) θ^i(X1,X2,,Xn)(i=1,2,,l),分别用观测值 θ ^ i ( x 1 , x 2 , ⋯   , x n ) \hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i(x1,x2,,xn)作为未知参数 θ i \theta_i θi的估计值。
估计量:估计用的统计量 θ ^ i ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}_i(X_1,X_2,\cdots,X_n) θ^i(X1,X2,,Xn)
估计值:估计量的观测值 θ ^ i ( x 1 , x 2 , ⋯   , x n ) \hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i(x1,x2,,xn)
在不致混淆的情况下统称估计量和估计值为估计,并都简记为 θ ^ i \hat{\theta}_i θ^i

估计量是样本的函数,是随机变量,不同的样本值得到的估计值往往是不同的。

2. 估计量的求法

矩估计法

设总体 X X X的前 l l l阶原点矩 α k = E ( X k )   ( k = 1 , 2 , ⋯   , l ) \alpha_k=E\left(X^k\right)\,(k=1,2,\cdots,l) αk=E(Xk)(k=1,2,,l)存在,且都是 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl的函数,即 α k = α k ( θ 1 , θ 2 , ⋯   , θ l ) \alpha_k=\alpha_k(\theta_1,\theta_2,\cdots,\theta_l) αk=αk(θ1,θ2,,θl)。把总体原点矩用样本原点矩代替( α k → A k \alpha_k\to A_k αkAk),未知参数用其估计量代替( θ i → θ ^ i \theta_i\to\hat{\theta}_i θiθ^i),得 { α 1 ( θ ^ 1 , θ ^ 2 , ⋯   , θ ^ l ) = A 1 α 2 ( θ ^ 1 , θ ^ 2 , ⋯   , θ ^ l ) = A 2 ⋯ α l ( θ ^ 1 , θ ^ 2 , ⋯   , θ ^ l ) = A l \begin{cases} \alpha_1\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_1\\ \alpha_2\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_2\\ \cdots\\ \alpha_l\left(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l\right)=A_l \end{cases} α1(θ^1,θ^2,,θ^l)=A1α2(θ^1,θ^2,,θ^l)=A2αl(θ^1,θ^2,,θ^l)=Al解此方程组可得 θ ^ 1 , θ ^ 2 , ⋯   , θ ^ l \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_l θ^1,θ^2,,θ^l(是 A 1 , A 2 , ⋯   , A k A_1,A_2,\cdots,A_k A1,A2,,Ak的函数),并将它们分别作为 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl的估计量。 A 1 A_1 A1一般写作 X ‾ \overline{X} X

矩估计法的理论依据是大数定律,当 n n n充分大时,样本矩 A k A_k Ak以很大的概率落在总体矩 α k \alpha_k αk的附近,因此可用 A k A_k Ak作为 α k \alpha_k αk的矩估计量。

X   ~   U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),求 θ \theta θ的矩估计量。
:我们知道 α 1 = E ( X ) = θ 2 \alpha_1=E(X)=\frac{\theta}{2} α1=E(X)=2θ α 1 \alpha_1 α1换成 A 1 A_1 A1 X ‾ \overline{X} X), θ \theta θ换成 θ ^ \hat{\theta} θ^ X ‾ = θ ^ 2 \overline{X}=\frac{\hat{\theta}}{2} X=2θ^因此 θ \theta θ的矩估计量为 θ ^ = 2 X ‾ \hat{\theta}=2\overline{X} θ^=2X

矩估计法不必知道总体的分布,优点是简单直接,但缺点是只利用了总体的局部特性而没有充分利用总体的信息。

最大似然估计法

思想:若存在某一分布,使得在此分布下抽中 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn)的概率最大,则认为 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn)来自这一分布。

似然函数:若总体 X X X是离散型或连续型随机变量,其分布律为 P { X = x } = p ( x ; θ 1 , θ 2 , ⋯   , θ l ) P\{X=x\}=p(x;\theta_1,\theta_2,\cdots,\theta_l) P{X=x}=p(x;θ1,θ2,,θl),或其概率密度为 f ( x ; θ 1 , θ 2 , ⋯   , θ l ) f(x;\theta_1,\theta_2,\cdots,\theta_l) f(x;θ1,θ2,,θl),其中 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl为未知参数,在参数空间 Θ \Theta Θ内取值,变量 x x x在随机变量 X X X的可能取值范围内取值。设 ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)是来自总体 X X X的样本,则 ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)的分布律为 L ( x 1 , x 2 , ⋯   , x n ; θ 1 , θ 2 , ⋯   , θ l ) = P { X 1 = x 1 , X 2 = x 2 , ⋯   , X n = x n } = ∏ i = 1 n p ( x i ; θ 1 , θ 2 , ⋯   , θ l ) \begin{aligned} L(x_1,x_2,\cdots,x_n;\theta_1,\theta_2,\cdots,\theta_l)&=P\{X_1=x_1,X_2=x_2,\cdots,X_n=x_n\}\\ &=\prod\limits_{i=1}^n p(x_i;\theta_1,\theta_2,\cdots,\theta_l) \end{aligned} L(x1,x2,,xn;θ1,θ2,,θl)=P{X1=x1,X2=x2,,Xn=xn}=i=1np(xi;θ1,θ2,,θl)或概率密度为 L ( x 1 , x 2 , ⋯   , x n ; θ 1 , θ 2 , ⋯   , θ l ) = ∏ i = 1 n f ( x i ; θ 1 , θ 2 , ⋯   , θ l ) L(x_1,x_2,\cdots,x_n;\theta_1,\theta_2,\cdots,\theta_l)=\prod\limits_{i=1}^n f(x_i;\theta_1,\theta_2,\cdots,\theta_l) L(x1,x2,,xn;θ1,θ2,,θl)=i=1nf(xi;θ1,θ2,,θl)当固定 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn),把 L L L看成是 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl的定义于 Θ \Theta Θ上的函数时,它称为参数 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl的似然函数,并简记为 L ( θ 1 , θ 2 , ⋯   , θ l ) L(\theta_1,\theta_2,\cdots,\theta_l) L(θ1,θ2,,θl)。即:似然函数就是样本的分布律/概率密度,然后看成参数的函数。
对数似然函数:似然函数的对数 ln ⁡ L ( θ 1 , θ 2 , ⋯   , θ l ) \ln L(\theta_1,\theta_2,\cdots,\theta_l) lnL(θ1,θ2,,θl)称为对数似然函数。

最大似然估计法:得到样本值 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn)后,取 θ ^ 1 , θ ^ 2 , ⋯   , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,,θ^n使得 L ( θ ^ 1 , θ ^ 2 , ⋯   , θ ^ n ) = max ⁡ ( θ 1 , θ 2 , ⋯   , θ l ) ∈ Θ L ( θ 1 , θ 2 , ⋯   , θ l ) L(\hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n)=\max\limits_{(\theta_1,\theta_2,\cdots,\theta_l)\in\Theta}L(\theta_1,\theta_2,\cdots,\theta_l) L(θ^1,θ^2,,θ^n)=(θ1,θ2,,θl)ΘmaxL(θ1,θ2,,θl)这样得到的 θ ^ 1 , θ ^ 2 , ⋯   , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,,θ^n与样本值 ( x 1 , x 2 , ⋯   , x n ) (x_1,x_2,\cdots,x_n) (x1,x2,,xn)有关,记为 θ ^ i = θ ^ i ( x 1 , x 2 , ⋯   , x n ) \hat{\theta}_i=\hat{\theta}_i(x_1,x_2,\cdots,x_n) θ^i=θ^i(x1,x2,,xn),并称为参数 θ i   ( i = 1 , 2 , ⋯   , l ) \theta_i\,(i=1,2,\cdots,l) θi(i=1,2,,l)最大似然估计值,而相应的统计量 θ ^ i = θ ^ i ( X 1 , X 2 , ⋯   , X n )   ( i = 1 , 2 , ⋯   , l ) \hat{\theta}_i=\hat{\theta}_i(X_1,X_2,\cdots,X_n)\,(i=1,2,\cdots,l) θ^i=θ^i(X1,X2,,Xn)(i=1,2,,l)称为参数 θ i \theta_i θi最大似然估计量

由于 ln ⁡ x \ln x lnx x x x的单调增函数,所以 L L L取最大的时候 ln ⁡ L \ln L lnL也取最大,我们也可以考察 ln ⁡ L \ln L lnL的最大值。

在很多时候, L L L ln ⁡ L \ln L lnL关于参数 θ 1 , θ 2 , ⋯   , θ l \theta_1,\theta_2,\cdots,\theta_l θ1,θ2,,θl的偏导数存在,此时 θ ^ 1 , θ ^ 2 , ⋯   , θ ^ n \hat{\theta}_1,\hat{\theta}_2,\cdots,\hat{\theta}_n θ^1,θ^2,,θ^n可从似然方程 { ∂ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ 1 = 0 ∂ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ 2 = 0 ⋯ ∂ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ l = 0 \begin{cases} \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_1}=0\\ \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_2}=0\\ \cdots\\ \cfrac{\partial L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_l}=0 \end{cases} θ1L(θ1,θ2,,θl)=0θ2L(θ1,θ2,,θl)=0θlL(θ1,θ2,,θl)=0对数似然方程 { ∂ ln ⁡ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ 1 = 0 ∂ ln ⁡ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ 2 = 0 ⋯ ∂ ln ⁡ L ( θ 1 , θ 2 , ⋯   , θ l ) ∂ θ l = 0 \begin{cases} \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_1}=0\\ \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_2}=0\\ \cdots\\ \cfrac{\partial\ln L(\theta_1,\theta_2,\cdots,\theta_l)}{\partial\theta_l}=0 \end{cases} θ1lnL(θ1,θ2,,θl)=0θ2lnL(θ1,θ2,,θl)=0θllnL(θ1,θ2,,θl)=0中解出。

X   ~   U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),求 θ \theta θ的最大似然估计量。
X X X的概率密度为 f ( x ; θ ) = { 1 θ , 0 ≤ x ≤ θ 0 , 其他 f(x;\theta)=\begin{cases}\frac{1}{\theta},&0\le x\le\theta\\0,&\text{其他}\end{cases} f(x;θ)={θ1,0,0xθ其他则样本 ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)的联合概率密度为 f ( x 1 , x 2 , ⋯   , x n ; θ ) = ∏ i = 1 n f ( x i ; θ ) = { 1 θ n , 0 ≤ x 1 , x 2 , ⋯   , x n ≤ θ 0 , 其他 f(x_1,x_2,\cdots,x_n;\theta)=\prod\limits_{i=1}^n f(x_i;\theta)=\begin{cases} \frac{1}{\theta^n},&0\le x_1,x_2,\cdots,x_n\le\theta\\ 0,&\text{其他} \end{cases} f(x1,x2,,xn;θ)=i=1nf(xi;θ)={θn1,0,0x1,x2,,xnθ其他把它看作 θ \theta θ的函数( x 1 , x 2 , ⋯   , x n x_1,x_2,\cdots,x_n x1,x2,,xn为已知),那么 θ \theta θ的似然函数为 L ( θ ) = { 1 θ n , θ ≥ max ⁡ { x 1 , x 2 , ⋯   , x n } 0 , 其他 L(\theta)=\begin{cases} \frac{1}{\theta^n},&\theta\ge\max\{x_1,x_2,\cdots,x_n\}\\ 0,&\text{其他} \end{cases} L(θ)={θn1,0,θmax{x1,x2,,xn}其他这个函数我们不用求导就能求出最大值。首先,它在 θ ≥ max ⁡ { x 1 , x 2 , ⋯   , x n } \theta\ge\max\{x_1,x_2,\cdots,x_n\} θmax{x1,x2,,xn}时才是正数;其次,在 θ \theta θ满足这个条件的情况下,因为 θ n \theta^n θn在分母,所以我们希望 θ \theta θ尽量小。因此当 θ = max ⁡ { x 1 , x 2 , ⋯   , x n } \theta=\max\{x_1,x_2,\cdots,x_n\} θ=max{x1,x2,,xn} L ( θ ) L(\theta) L(θ)取最大值。 θ \theta θ的最大似然估计量为 θ ^ = X ( n ) \hat{\theta}=X_{(n)} θ^=X(n)。这与矩估计法求得的估计量不同。

二、估计量的评选标准

1. 无偏性

无偏估计量:设 ( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)是来自总体 X X X的一个样本, θ \theta θ是包含在 X X X的分布中的未知参数, θ \theta θ的取值范围为 Θ \Theta Θ θ ^ = θ ^ ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) θ^=θ^(X1,X2,,Xn) θ \theta θ的一个估计量。若 ∀ θ ∈ Θ \forall\theta\in\Theta θΘ E ( θ ^ ) = θ E\left(\hat{\theta}\right)=\theta E(θ^)=θ,则称 θ ^ \hat{\theta} θ^ θ \theta θ的一个无偏估计量。
有偏估计量:有偏差的估计量,其中偏差(简称偏)等于 E ( θ ^ ) − θ E\left(\hat{\theta}\right)-\theta E(θ^)θ
渐进无偏估计量:若 E ( θ ^ ) − θ ≠ 0 E\left(\hat{\theta}\right)-\theta\ne0 E(θ^)θ=0,但当样本容量 n → ∞ n\to\infty n时,有 lim ⁡ n → ∞ [ E ( θ ^ ) − θ ] = 0 \lim\limits_{n\to\infty}\left[E\left(\hat{\theta}\right)-\theta\right]=0 nlim[E(θ^)θ]=0,则称 θ ^ \hat{\theta} θ^ θ \theta θ的渐近无偏估计量。

( X 1 , X 2 , ⋯   , X n ) (X_1,X_2,\cdots,X_n) (X1,X2,,Xn)是来自总体 X X X的样本,无论 X X X服从什么分布,都有
(1) 若 E ( X ) = μ E(X)=\mu E(X)=μ存在,则样本均值 X ‾ \overline{X} X E ( X ) E(X) E(X)的无偏估计量;
(2) 若 D ( X ) = σ 2 D(X)=\sigma^2 D(X)=σ2存在,则样本方差 S 2 S^2 S2 σ 2 \sigma^2 σ2的无偏估计量;
(3) 若总体 k k k阶矩 E ( X k ) = α k E\left(X^k\right)=\alpha_k E(Xk)=αk存在,则 k k k阶样本原点矩 A k = 1 k ∑ i = 1 n X i k A_k=\frac{1}{k}\sum\limits_{i=1}^n X_i^k Ak=k1i=1nXik k k k阶总体原点矩 α k \alpha_k αk的无偏估计量。

可以证明,设总体 X   ~   U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),参数 θ > 0 \theta>0 θ>0,则 2 X ‾ 2\overline{X} 2X n + 1 n X ( n ) \frac{n+1}{n}X_{(n)} nn+1X(n)都是 θ \theta θ的无偏估计量。

虽然 S 2 S^2 S2 σ 2 \sigma^2 σ2的无偏估计量,但 S S S不是 σ \sigma σ的无偏估计量, n − 1 2 Γ ( n − 1 2 ) Γ ( n 2 ) S \sqrt{\frac{n-1}{2}}\frac{\Gamma\left(\frac{n-1}{2}\right)}{\Gamma\left(\frac{n}{2}\right)}S 2n1 Γ(2n)Γ(2n1)S才是 σ \sigma σ的无偏估计量。这说明,若 θ ^ \hat{\theta} θ^ θ \theta θ的无偏估计量,一般情况下, g ( θ ^ ) g\left(\hat{\theta}\right) g(θ^)不是 θ \theta θ的无偏估计量,除非 g g g是线性函数。

2. 有效性

无偏估计量不一定是唯一的,所以我们需要选取其中取值最集中的,即方差最小的作为最好的估计量。

有效性:设 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2都是 θ \theta θ的无偏估计量,若 D ( θ ^ 1 ) ≤ D ( θ ^ 2 ) D\left(\hat{\theta}_1\right)\le D\left(\hat{\theta}_2\right) D(θ^1)D(θ^2),则称 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2有效。

X   ~   U ( 0 , θ ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td U(0,\theta) X~U(0,θ),则 θ ^ 2 = n + 1 n X ( n ) \hat{\theta}_2=\frac{n+1}{n}X_{(n)} θ^2=nn+1X(n) θ ^ 1 = 2 X ‾ \hat{\theta}_1=2\overline{X} θ^1=2X有效( D ( θ ^ 1 ) = θ 2 3 n > D ( θ ^ 2 ) = θ 2 n ( n + 2 ) D\left(\hat{\theta}_1\right)=\frac{\theta^2}{3n}>D\left(\hat{\theta}_2\right)=\frac{\theta^2}{n(n+2)} D(θ^1)=3nθ2>D(θ^2)=n(n+2)θ2)。

最小方差无偏估计量:在所有估计量中方差最小的无偏估计量

3. 相合性

相合估计量/一致估计量:设 θ ^ = θ ^ ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,\cdots,X_n) θ^=θ^(X1,X2,,Xn)是参数 θ \theta θ的估计量,如果当 n → ∞ n\to\infty n时, θ ^ \hat{\theta} θ^依概率收敛于 θ \theta θ,即 ∀ ε > 0 ,   lim ⁡ n → ∞ P { ∣ θ ^ − θ ∣ < ε } = 1 \forall\varepsilon>0,\,\lim\limits_{n\to\infty}P\left\{\left|\hat{\theta}-\theta\right|<\varepsilon\right\}=1 ε>0,nlimP{ θ^θ <ε}=1则称 θ ^ \hat{\theta} θ^ θ \theta θ的相合估计量/一致估计量,并记 ( p ) lim ⁡ n → ∞ θ ^ = θ (p)\lim\limits_{n\to\infty}\hat{\theta}=\theta (p)nlimθ^=θ θ ^ ⟶ P θ ( n → ∞ ) \hat{\theta}\overset{P}{\longrightarrow}\theta(n\to\infty) θ^Pθ(n)
均方相合估计量:如果当 n → ∞ n\to\infty n时, θ ^ \hat{\theta} θ^均方收敛于 θ \theta θ,即 lim ⁡ n → ∞ E [ ( θ ^ − θ ) 2 ] = 0 \lim\limits_{n\to\infty}E\left[{\left(\hat{\theta}-\theta\right)}^2\right]=0 nlimE[(θ^θ)2]=0则称 θ ^ \hat{\theta} θ^ θ \theta θ的均方相合估计量,并记 ( m. s.  ) lim ⁡ n → ∞ θ ^ = θ \newcommand{\ms}{(\text{m. s. })}\ms\lim\limits_{n\to\infty}\hat{\theta}=\theta (m. s. )nlimθ^=θ θ ^ ⟶ L 2 θ ( n → ∞ ) \hat{\theta}\overset{L^2}{\longrightarrow}\theta(n\to\infty) θ^L2θ(n)

相合性是对估计量的最基本的要求,它要求当样本容量无限增加时,用估计量估计参数可以达到任意小的精度。

可以证明,常见的矩估计量都是相合估计量(例如 A k → α k A_k\to\alpha_k Akαk X ‾ → E ( X ) \overline{X}\to E(X) XE(X) S 2 → σ 2 S^2\to\sigma^2 S2σ2 S → σ S\to\sigma Sσ)。均方相合估计量一定是相合估计量,但反之不一定成立。

总结

无偏性 E ( θ ^ ) = θ E\left(\hat{\theta}\right)=\theta E(θ^)=θ
有效性:方差越小越好
相合性:依概率收敛(样本容量足够大时估计值与真实值之间的差距可以任意小)

三、区间估计

1. 双侧区间估计

P { θ ^ 1 ( X 1 , X 2 , ⋯   , X n ) < θ < θ ^ 2 ( X 1 , X 2 , ⋯   , X n ) } = 1 − α ⇓ \underset{\large\Downarrow}{P\left\{ \hat{\theta}_1(X_1,X_2,\cdots,X_n)<\theta<\hat{\theta}_2(X_1,X_2,\cdots,X_n) \right\}=1-\alpha} P{θ^1(X1,X2,,Xn)<θ<θ^2(X1,X2,,Xn)}=1α随机区间 ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)为参数 θ \theta θ的置信度为 1 − α 1-\alpha 1α双侧置信区间
θ ^ 1 \hat{\theta}_1 θ^1置信下限
θ ^ 2 \hat{\theta}_2 θ^2置信上限
1 − α 1-\alpha 1α置信度
α \alpha α:区间 ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)包含 θ \theta θ的概率(一般很小)

在置信度 1 − α 1-\alpha 1α给定的情况下,置信区间的长度 E ( θ ^ 2 − θ ^ 1 ) E\left(\hat{\theta}_2-\hat{\theta}_1\right) E(θ^2θ^1)越小越好。

求未知参数 θ \theta θ的双侧置信区间的具体做法:

(1) 寻求枢轴量 Z = Z ( X 1 , X 2 , ⋯   , X n , θ ) Z=Z\left(X_1,X_2,\cdots,X_n,\theta\right) Z=Z(X1,X2,,Xn,θ),我们需要知道 Z Z Z的分布,并且此分布不依赖于任何未知参数,也不依赖于 θ \theta θ
(2) 对于给定的置信度 1 − α 1-\alpha 1α,求出两个常数 k 1 , k 2 k_1,k_2 k1,k2使得 P { k 1 < Z < k 2 } = 1 − α P\{k_1<Z<k_2\}=1-\alpha P{k1<Z<k2}=1α
(3) k 1 < Z < k 2 ⟶ 改写 θ ^ 1 < θ < θ ^ 2 k_1<Z<k_2\overset{\text{改写}}{\Large{\longrightarrow}}\hat{\theta}_1<\theta<\hat{\theta}_2 k1<Z<k2改写θ^1<θ<θ^2 ( θ ^ 1 , θ ^ 2 ) \left(\hat{\theta}_1,\hat{\theta}_2\right) (θ^1,θ^2)是置信度为 1 − α 1-\alpha 1α的置信区间。
(4) 根据样本值计算 θ ^ 1 , θ ^ 2 \hat{\theta}_1,\hat{\theta}_2 θ^1,θ^2的具体值。

X   ~   N ( μ , σ 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu,\sigma^2) X~N(μ,σ2) σ 2 \sigma^2 σ2已知, μ \mu μ未知,求参数 μ \mu μ的置信度为 1 − α 1-\alpha 1α的置信区间。
:取枢轴量 U = X ‾ − μ σ / n   ~   N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\overline{X}-\mu}{\sigma/\sqrt{n}}\td N(0,1) U=σ/n Xμ~N(0,1),可以看出 N ( 0 , 1 ) N(0,1) N(0,1)不依赖任何参数。
现在要找到 k 1 , k 2 k_1,k_2 k1,k2使得 P { k 1 < U < k 2 } = 1 − α P\left\{k_1<U<k_2\right\}=1-\alpha P{k1<U<k2}=1α,一般取 k 1 = − u α / 2 k_1=-u_{\alpha/2} k1=uα/2 k 2 = u α / 2 k_2=u_{\alpha/2} k2=uα/2。注意到 − u α / 2 = u 1 − α / 2 -u_{\alpha/2}=u_{1-\alpha/2} uα/2=u1α/2,我们有 P { k 1 < U < k 2 } = 1 − P { U ≥ k 2 } − P { U ≤ k 1 } = 1 − α 2 − ( 1 − P { U > k 1 } ) = 1 − α 2 − [ 1 − ( 1 − α 2 ) ] = α \begin{aligned} P\{k_1<U<k_2\}&=1-P\{U\ge k_2\}-P\{U\le k_1\}\\ &=1-\frac{\alpha}{2}-\left(1-P\left\{U>k_1\right\}\right)\\ &=1-\frac{\alpha}{2}-\left[1-\left(1-\frac{\alpha}{2}\right)\right]\\ &=\alpha \end{aligned} P{k1<U<k2}=1P{Uk2}P{Uk1}=12α(1P{U>k1})=12α[1(12α)]=α
示意图

既然 P { − u α / 2 < X ‾ − μ σ / n < u α / 2 } = 1 − α P\left\{-u_{\alpha/2}<\cfrac{\overline{X}-\mu}{\sigma/\sqrt{n}}<u_{\alpha/2}\right\}=1-\alpha P{uα/2<σ/n Xμ<uα/2}=1α,那么 P { − n σ u α / 2 < X ‾ − μ < n σ u α / 2 } = 1 − α P { X ‾ − n σ u α / 2 < μ < X ‾ + n σ u α / 2 } = 1 − α \begin{aligned} P\left\{-\frac{\sqrt{n}}{\sigma}u_{\alpha/2}<\overline{X}-\mu<\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right\}&=1-\alpha\\ P\left\{\overline{X}-\frac{\sqrt{n}}{\sigma}u_{\alpha/2}<\mu<\overline{X}+\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right\}&=1-\alpha \end{aligned} P{σn uα/2<Xμ<σn uα/2}P{Xσn uα/2<μ<X+σn uα/2}=1α=1α于是得 μ \mu μ的置信度为 1 − α 1-\alpha 1α的置信区间为 ( X ‾ − n σ u α / 2 , X ‾ + n σ u α / 2 ) \left(\overline{X}-\frac{\sqrt{n}}{\sigma}u_{\alpha/2},\overline{X}+\frac{\sqrt{n}}{\sigma}u_{\alpha/2}\right) (Xσn uα/2,X+σn uα/2)

其实,选取枢轴量的过程就是从 X X X的分布中剔除参数 θ \theta θ的影响的过程。 X X X的分布受 θ \theta θ影响,我们就需要消除这种影响,所以我们提出统计量 Z Z Z,它的分布是完全确定的,只有这样我们才能确定参数 k 1 , k 2 k_1,k_2 k1,k2。如果 X X X的分布不是确定的,那么我们很难求出置信区间。

2. 单侧区间估计

P { θ ‾ ( X 1 , X 2 , ⋯   , X n ) < θ } = 1 − α    ⟹    ( θ ‾ , + ∞ ) P\left\{\underline{\theta}(X_1,X_2,\cdots,X_n)<\theta\right\}=1-\alpha\implies\left(\underline{\theta},+\infty\right) P{θ(X1,X2,,Xn)<θ}=1α(θ,+) θ \theta θ的置信度为 1 − α 1-\alpha 1α单侧置信区间 θ ‾ \underline{\theta} θ置信下界
P { θ < θ ‾ ( X 1 , X 2 , ⋯   , X n ) } = 1 − α    ⟹    ( − ∞ , θ ‾ ) P\left\{\theta<\overline{\theta}(X_1,X_2,\cdots,X_n)\right\}=1-\alpha\implies\left(-\infty,\overline{\theta}\right) P{θ<θ(X1,X2,,Xn)}=1α(,θ) θ \theta θ的置信度为 1 − α 1-\alpha 1α单侧置信区间 θ ‾ \overline{\theta} θ置信上界

即: ( θ ‾ , + ∞ ) \left(\underline{\theta},+\infty\right) (θ,+)包含 θ \theta θ的概率为 1 − α 1-\alpha 1α ( − ∞ , θ ‾ ) \left(-\infty,\overline{\theta}\right) (,θ)包含 θ \theta θ的概率为 1 − α 1-\alpha 1α

在置信度 1 − α 1-\alpha 1α给定的情况下,置信下界越大越好,置信上界越小越好。

四、正态总体参数的区间估计

对于单个总体的情形,我们设 X   ~   N ( μ , σ 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu,\sigma^2) X~N(μ,σ2);对于两个总体的情形,我们设 X   ~   N ( μ 1 , σ 1 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}X\td N(\mu_1,\sigma_1^2) X~N(μ1,σ12) Y   ~   N ( μ 2 , σ 2 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}Y\td N(\mu_2,\sigma_2^2) Y~N(μ2,σ22) X X X的样本容量为 n n n,样本方差为 S X 2 S_X^2 SX2 Y Y Y的样本容量为 m m m,样本方差为 S Y 2 S_Y^2 SY2

σ 2 \sigma^2 σ2已知,考察 μ \mu μ

枢轴量 U = n ( X ‾ − μ ) σ   ~   N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\sqrt{n}\left(\overline{X}-\mu\right)}{\sigma}\td N(0,1) U=σn (Xμ)~N(0,1)

注意 P { − u α / 2 < U < u α / 2 } = 1 − α P\left\{-u_{\alpha/2}<U<u_{\alpha/2}\right\}=1-\alpha P{uα/2<U<uα/2}=1α
P { U < u α } = 1 − α P\left\{U<u_\alpha\right\}=1-\alpha P{U<uα}=1α
P { U > − u α } = 1 − α P\left\{U>-u_\alpha\right\}=1-\alpha P{U>uα}=1α

σ 2 \sigma^2 σ2未知,考察 μ \mu μ

枢轴量 T = n ( X ‾ − μ ) S   ~   t ( n − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}T=\cfrac{\sqrt{n}\left(\overline{X}-\mu\right)}{S}\td t(n-1) T=Sn (Xμ)~t(n1)

注意 P { − t α / 2 < T < t α / 2 } = 1 − α P\left\{-t_{\alpha/2}<T<t_{\alpha/2}\right\}=1-\alpha P{tα/2<T<tα/2}=1α
P { T < t α } = 1 − α P\left\{T<t_\alpha\right\}=1-\alpha P{T<tα}=1α
P { T > − t α } = 1 − α P\left\{T>-t_\alpha\right\}=1-\alpha P{T>tα}=1α

μ \mu μ已知,考察 σ 2 \sigma^2 σ2

枢轴量 χ 2 = ∑ i = 1 n ( X i − μ ) 2 σ 2   ~   χ 2 ( n ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}\chi^2=\cfrac{\sum\limits_{i=1}^n{\left(X_i-\mu\right)}^2}{\sigma^2}\td\chi^2(n) χ2=σ2i=1n(Xiμ)2~χ2(n)

μ \mu μ未知,考察 σ 2 \sigma^2 σ2

枢轴量 χ 2 = ∑ i = 1 n ( X i − X ‾ ) 2 σ 2 = ( n − 1 ) S 2 σ 2   ~   χ 2 ( n − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}\chi^2=\cfrac{\sum\limits_{i=1}^n{\left(X_i-\overline{X}\right)}^2}{\sigma^2}=\cfrac{(n-1)S^2}{\sigma^2}\td\chi^2(n-1) χ2=σ2i=1n(XiX)2=σ2(n1)S2~χ2(n1)
卡方分布示意图
注意 P { χ 2 > χ α / 2 2 ( n − 1 ) } = α 2 P\left\{\chi^2>\chi^2_{\alpha/2}(n-1)\right\}=\frac{\alpha}{2} P{χ2>χα/22(n1)}=2α P { χ 2 > χ 1 − α / 2 2 ( n − 1 ) } = 1 − α 2 P\left\{\chi^2>\chi^2_{1-\alpha/2}(n-1)\right\}=1-\frac{\alpha}{2} P{χ2>χ1α/22(n1)}=12α,故 P { χ 1 − α / 2 2 ( n − 1 ) < χ 2 < χ α / 2 2 ( n − 1 ) } = 1 − α P\{\chi^2_{1-\alpha/2}(n-1)<\chi^2<\chi^2_{\alpha/2}(n-1)\}=1-\alpha P{χ1α/22(n1)<χ2<χα/22(n1)}=1α
P { χ 2 < χ α 2 ( n − 1 ) } = 1 − α P\left\{\chi^2<\chi^2_{\alpha}(n-1)\right\}=1-\alpha P{χ2<χα2(n1)}=1α
P { χ 2 > χ 1 − α 2 ( n − 1 ) } = 1 − α P\left\{\chi^2>\chi^2_{1-\alpha}(n-1)\right\}=1-\alpha P{χ2>χ1α2(n1)}=1α

σ 1 2 , σ 2 2 \sigma_1^2,\sigma_2^2 σ12,σ22已知,考察 μ 1 − μ 2 \mu_1-\mu_2 μ1μ2

枢轴量 U = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) σ 1 2 n + σ 2 2 m   ~   N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\cfrac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{\sqrt{\frac{\sigma_1^2}{n}+\frac{\sigma_2^2}{m}}}\td N(0,1) U=nσ12+mσ22 (XY)(μ1μ2)~N(0,1)

注意 D ( X ‾ − Y ‾ ) = σ 1 2 n + σ 2 2 m D\left(\overline{X}-\overline{Y}\right)=\frac{\sigma_1^2}{n}+\frac{\sigma_2^2}{m} D(XY)=nσ12+mσ22

σ 1 2 = σ 2 2 \sigma_1^2=\sigma_2^2 σ12=σ22未知,考察 μ 1 − μ 2 \mu_1-\mu_2 μ1μ2

枢轴量 T = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) S W 1 n + 1 m   ~   t ( n + m − 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}T=\cfrac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{S_W\sqrt{\frac{1}{n}+\frac{1}{m}}}\td t(n+m-2) T=SWn1+m1 (XY)(μ1μ2)~t(n+m2),其中 S W = ( n − 1 ) S X 2 + ( m − 1 ) S Y 2 n + m − 2 S_W=\sqrt{\cfrac{(n-1)S_X^2+(m-1)S_Y^2}{n+m-2}} SW=n+m2(n1)SX2+(m1)SY2

注意 U = ( X ‾ − Y ‾ ) − ( μ 1 − μ 2 ) σ 1 n + 1 m   ~   N ( 0 , 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}U=\frac{\left(\overline{X}-\overline{Y}\right)-(\mu_1-\mu_2)}{\sigma\sqrt{\frac{1}{n}+\frac{1}{m}}}\td N(0,1) U=σn1+m1 (XY)(μ1μ2)~N(0,1) V = ( n − 1 ) S X 2 + ( m − 1 ) S Y 2 σ 2   ~   χ 2 ( n + m − 2 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}V=\frac{(n-1)S_X^2+(m-1)S_Y^2}{\sigma^2}\td\chi^2(n+m-2) V=σ2(n1)SX2+(m1)SY2~χ2(n+m2)

μ 1 , μ 2 \mu_1,\mu_2 μ1,μ2已知,考察 σ 1 2 σ 2 2 \frac{\sigma_1^2}{\sigma_2^2} σ22σ12

枢轴量 F = ∑ i = 1 n ( X i − μ 1 ) 2 σ 1 2 / n ∑ j = 1 m ( Y j − μ 2 ) 2 σ 2 2 / m = σ 2 2 σ 1 2 m ∑ i = 1 n ( X i − μ 1 ) 2 n ∑ j = 1 m ( Y j − μ 2 ) 2   ~   F ( n , m ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}F=\cfrac{\left.\sum\limits_{i=1}^n\cfrac{{(X_i-\mu_1)}^2}{\sigma_1^2}\right/n}{\left.\sum\limits_{j=1}^m\cfrac{{(Y_j-\mu_2)}^2}{\sigma_2^2}\right/m}=\cfrac{\sigma_2^2}{\sigma_1^2}\cfrac{m\sum\limits_{i=1}^n{(X_i-\mu_1)}^2}{n\sum\limits_{j=1}^m{(Y_j-\mu_2)}^2}\td F(n,m) F=j=1mσ22(Yjμ2)2/mi=1nσ12(Xiμ1)2/n=σ12σ22nj=1m(Yjμ2)2mi=1n(Xiμ1)2~F(n,m)

μ 1 , μ 2 \mu_1,\mu_2 μ1,μ2未知,考察 σ 1 2 σ 2 2 \frac{\sigma_1^2}{\sigma_2^2} σ22σ12

枢轴量 F = σ 2 2 σ 1 2 S 1 2 S 2 2   ~   F ( n − 1 , m − 1 ) \newcommand{\td}{\,\text{\large\textasciitilde}\,}F=\cfrac{\sigma_2^2}{\sigma_1^2}\cfrac{S_1^2}{S_2^2}\td F(n-1,m-1) F=σ12σ22S22S12~F(n1,m1)

注意 P { F > F α / 2 ( n − 1 , m − 1 ) } = α 2 P\left\{F>F_{\alpha/2}(n-1,m-1)\right\}=\frac{\alpha}{2} P{F>Fα/2(n1,m1)}=2α P { F > F 1 − α / 2 ( n − 1 , m − 1 ) } = 1 − α 2 P\left\{F>F_{1-\alpha/2}(n-1,m-1)\right\}=1-\frac{\alpha}{2} P{F>F1α/2(n1,m1)}=12α,故 P { F 1 − α / 2 ( n − 1 , m − 1 ) < F < F α / 2 ( n − 1 , m − 1 ) } = 1 − α P\{F_{1-\alpha/2}(n-1,m-1)<F<F_{\alpha/2}(n-1,m-1)\}=1-\alpha P{F1α/2(n1,m1)<F<Fα/2(n1,m1)}=1α
P { F < F α ( n − 1 , m − 1 ) } = 1 − α P\left\{F<F_{\alpha}(n-1,m-1)\right\}=1-\alpha P{F<Fα(n1,m1)}=1α
P { F > F 1 − α ( n − 1 , m − 1 ) } = 1 − α P\left\{F>F_{1-\alpha}(n-1,m-1)\right\}=1-\alpha P{F>F1α(n1,m1)}=1α


t t t分布和标准正态分布 N ( 0 , 1 ) N(0,1) N(0,1)类似,概率密度曲线都是关于 x = 0 x=0 x=0对称的, u 1 − α = − u α u_{1-\alpha}=-u_\alpha u1α=uα t 1 − α ( n ) = − t α ( n ) t_{1-\alpha}(n)=-t_\alpha(n) t1α(n)=tα(n)
F F F分布和 χ 2 \chi^2 χ2分布类似,概率密度都只在 x > 0 x>0 x>0时为正。

不论 X X X服从何分布,都满足 P { q 1 − α / 2 < X < q α / 2 } = 1 − α P\{q_{1-\alpha/2}<X<q_{\alpha/2}\}=1-\alpha P{q1α/2<X<qα/2}=1α,其中 q α q_{\alpha} qα表示 X X X服从的分布的上侧 α \alpha α分位数。

关于自由度是多少,可以这么考虑:如果总体均值 μ \mu μ已知,那么自由度就是样本容量;如果总体均值 μ \mu μ未知,而用样本均值 X ‾ \overline{X} X代替的话,就要损失一个自由度。对于检验样本均值差时所用的 t t t分布,它的自由度是二者的自由度之和。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/132780.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

车载以太网 - DoIP报文类型 - 02

上次我们聊了什么是DoIP&#xff0c;以及DoIP在车载网络以及车载ECU中的作用&#xff0c;我们应该有大概的了解&#xff0c;以及它的极大地作用&#xff0c;今天我们开始全面的去了解它&#xff0c;毕竟只有等我们了解它以后&#xff0c;才能更好的应用。今天要聊的第一个内容呢…

沃太能源冲刺上市:亿纬锂能、高瓴均为股东,收入主要来自境外

12月30日&#xff0c;沃太能源股份有限公司&#xff08;下称“沃太能源”&#xff09;在上海证券交易所递交招股书&#xff0c;准备在科创板上市。本次冲刺科创板上市&#xff0c;沃太能源计划募资10亿元&#xff0c;中信证券为其保荐机构。 按照计划&#xff0c;沃太能源将其中…

网络编程 udp/ip协议 c/s模型

目录 1.概念​编辑 2.代码解析 1.recvfrom函数 2.sendto函数 3.内核泄露问题 整体代码 1.概念 2.代码解析 1.recvfrom函数 该函数接收数据报&#xff0c;并存储源地址&#xff0c;即得到当前服务器接收到的消息&#xff0c;并且存储在参数2&#xff0c;该函数是阻塞的&#x…

c++构造和析构

1.构造函数 1.构造函数特性 构造函数名字和类名相同构造函数没有返回值(void有返回值&#xff0c;返回值为空)不写构造函数&#xff0c;每一个类中都存在默认的构造函数&#xff0c;默认的构造函数是没有参数的default显示使用默认的构造函数delete删掉默认函数当我们自己写了…

MM采购订单及发票相关后台表介绍(图解)

EKPO 采购凭证项目 EKKO 采购凭证抬头 EORD 采购货源清单 EINA 采购信息记录 - 一般数据 EINE 采购信息记录 - 采购组织数据 EKET 计划协议计划行 EKES 供应商确认 EKKN 采购凭证中的帐户设置 EKBE 采购凭证历史 EKBZ 每个采购凭证的历史&#xff1a;交货费用 RBKP 凭…

在wsl下开发T113的主线linux(2)-编译awboot

意外发现有awboot能够代替uboot直接引导内核&#xff0c;体验了一下果断选择awboot&#xff0c;因为足够简洁&#xff0c;编译大小只有32k&#xff0c;和uboot接近1M的体量相比&#xff0c;简直是小而美&#xff0c;启动速度也比uboot快上不少&#xff0c;也能同时支持sd卡&…

DoIP协议从入门到精通系列——车载网络拓扑

因特网协议(IP-Internet protocol)是互联网规范中的基本协议,它仅是支持互联网正常运转“TCP/IP”协议簇之一。UDP协议也是TCP/IP协议体系中的内容(因为名称中只含有TCP/IP名称,往往会忽略UDP)。以太网引入到车载网络后,汽车也会慢慢进入车联网时代(或者物联网,万物互…

aws codepipeline 在pipeline构建过程中使用变量

参考资料 Action structure reference codebuild构建环境中的环境变量 codepipeline中的变量 在codePipeline中使用变量 对于codepipeline来说&#xff0c;管道结构中的每个操作都有自身的结构和定义&#xff0c;本文主要讨论不同资源的输出变量。 基本概念 变量允许用户…

数据完整性(一)

目录 数据完整性&#xff1a; 什么是数据完整性&#xff1a; 数据完整性的类型 1&#xff1a;实体完整性 2&#xff1a;域完整性&#xff1a; 3、引用完整性&#xff1a; 4、自定义完整性&#xff1a; 完整性约束&#xff1a; 数据完整性的实现方式&#xff1a; 实体完整性&a…

抽象⼯⼚模式

抽象⼯⼚模式 1.抽象工厂模式介绍 抽象⼯⼚模式与⼯⼚⽅法模式虽然主要意图都是为了解决&#xff0c;接⼝选择问题。但在实现上&#xff0c;抽象⼯⼚是⼀ 个中⼼⼯⼚&#xff0c;创建其他⼯⼚的模式。 2.案例场景模拟 2.1场景简述 很多时候初期业务的蛮荒发展&#xff0c;也…

NLP中隐性语义分析及奇异值分解(SVD)-学习笔记

目录 1、隐性语义分析 2、奇异值分解 2.1 左奇异向量U 2.2 奇异值向量S 2.3 右奇异值向量V^T 2.4 SVD矩阵的方向 2.5 主题约简 1、隐性语义分析 隐形语义分析基于最古老和最常用的降维技术–奇异值分解(SVD)。SVD将一个矩阵分解成3个方阵&#xff0c;其中一个是对角矩阵…

网络类型实验报告

实验拓扑 实验要求 1.R2为ISP&#xff0c;其上只能配置IP地址 2.R1-R2之间为HDLC封装 3.R2-R3之间为ppp封装&#xff0c;pap认证&#xff0c;R2为主认证方 4.R2-R4之间为PPP封装&#xff0c;chap认证&#xff0c;R2为主认证方 5.R1、R2、R3构建MGRE环境&#xff0c;仅R1P地址固…

【C++】-- C++11基础常用知识点

目录 C11简介 统一的列表初始化 &#xff5b;&#xff5d;初始化 std::initializer_list std::initializer_list使用场景&#xff1a; 声明 auto decltype nullptr 范围for循环 STL中一些变化 新容器 array容器 forward_list容器 容器中的一些新方法 C11简介 在…

TDK | RoboKit1-DK 开发平台为实现未来机器人的多样性扫清障碍

机器人行业正在飞速发展&#xff0c;新技术亦层出不穷。TDK 现推出了 TDK RoboKit1-DK 机器人开发平台&#xff0c;该平台配备了机器人精确操作所必需的各种传感器&#xff0c;有助于在各种机器人开发中提高效率和性能。 在技术快速进步与成长的环境中&#xff0c;机器人开发所…

计算机组成原理实验——二、寄存器实验

一、实验目的 1.掌握寄存器堆的工作原理和接口。 2.掌握寄存器堆的实现方法。 3.掌握寄存器堆在微处理器中承担的功能。 二&#xff0e;实验内容 设计一32*32bit 的寄存器文件&#xff0c;即32 个 32 位的寄存器文件&#xff08;寄存器组&#xff09; –具备两组读端口及一组…

【王道操作系统】2.2.1 处理机调度的概念与层次

处理机调度的概念与层次 文章目录处理机调度的概念与层次1.调度的基本概念2.调度的三个层次2.1 高级调度(作业调度)2.2 中级调度(内存调度)2.3 进程的挂起状态与七状态模型2.4 低级调度(进程调度)2.5 三层调度的联系和对比1.调度的基本概念 2.调度的三个层次 2.1 高级调度(作业…

GroundTrue和里程计输出的位姿的参考坐标系不一致的情况

这里写目录标题前言数据集描述使用TF工具包获取使用Eigen库计算置换输出误差对比没做转换之前转换之后前言 最近遇到一个数据集的ground true参考坐标和vSLAM输出的位姿的参考坐标不一样的问题&#xff0c;记录一下。 在之前参加的一个PRCV 2022的多传感器融合SLAM挑战赛中也同…

MATLAB读取tif格式图像

tif格式数据本质上就是带有地理信息的矩阵数据。 geotiffread函数 MATLAB帮助-geotiffread 语法Syntax&#xff1a; [A,R] geotiffread(filename) [X,cmap,R] geotiffread(filename) [A,refmat,bbox] geotiffread(filename) [X,cmap,refmat,bbox] geotiffread(filenam…

Symbol详解

Symbol Symbol是es6引入的一个新的原始数据类型&#xff0c;是一个独一无二的值。 目前为止&#xff0c;js的数据类型有以下几种&#xff1a; 数据类型说明undefinedundefinednullnullboolean布尔值string字符串number数字Bigint大整数Object对象SymbolSymbol Symbol通过Symb…

[go学习笔记.第十八章.数据结构] 2.约瑟夫问题,排序,栈,递归,哈希表,二叉树的三种遍历方式

一.约瑟夫问题 josephu 问题: 设编号为1, 2 &#xff0c;... n 的n个人围坐一圈, 约定编号为 k (1<k<n &#xff09;的人从 1 开始报数&#xff0c;数到m的那个人出列&#xff0c;它的下一位又从1开始报数&#xff0c;数到 m 的那个人又出列&#xff0c;依次类推&#xf…