模式识别-Ch2-分类错误率

news2025/1/8 13:11:19

分类错误率

最小错误率贝叶斯决策

样本 x x x的错误率: 任一决策都可能会有错误。
P ( error ∣ x ) = { P ( w 2 ∣ x ) , if we decide  x  as  w 1 P ( w 1 ∣ x ) , if we decide  x  as  w 2 P(\text{error}|\mathbf{x})=\begin{cases} P(w_2|\mathbf{x}), & \text{if we decide } \mathbf{x} \text{ as } w_1\\ P(w_1|\mathbf{x}), & \text{if we decide } \mathbf{x} \text{ as } w_2 \end{cases} P(errorx)={P(w2x),P(w1x),if we decide x as w1if we decide x as w2
P ( w 2 ∣ x ) P(w_2|x) P(w2x)即:当我们将样本 x x x判定为第一类 w 1 w_1 w1时,这个判定失误的概率为 P ( w 2 ∣ x ) P(w_2|x) P(w2x);(因为样本以该概率属于第二类)

样本 x x x的最小错误率:
P ( error ∣ x ) = min ⁡ ( P ( ω 1 ∣ x ) , P ( ω 2 ∣ x ) ) P(\text{error}|\mathbf{x})=\min(P(\omega_1|\mathbf{x}),P(\omega_2|\mathbf{x})) P(errorx)=min(P(ω1x),P(ω2x))
贝叶斯决策的错误率:贝叶斯决策的错误率定义为所有服从独立同分布的样本上的错误率的期望:
P ( error ) = ∫ P ( error ∣ x ) p ( x ) d x P(\text{error})=\int P(\text{error}|\mathbf{x})p(\mathbf{x})dx P(error)=P(errorx)p(x)dx

例:错误率(1D)

关于错误率,以一维为例说明: 考虑一个有关一维样本的两类分类问题。假设决策边界 t t t x x x轴分成两个区域 R 1 R_1 R1 R 2 R_2 R2 R 1 R_1 R1 ( − ∞ , t ) (-\infty,t) (,t) R 2 R_2 R2 ( t , ∞ ) (t,\infty) (t,)

错误情形:样本在 R 1 R_1 R1中,但属于第二类的概率是存在的,即 P ( w 2 ∣ x ) P(w_2|\mathbf{x}) P(w2x);样本在 R 2 R_2 R2中,但属于第一类的概率也是存在的,即 P ( w 1 ∣ x ) P(w_1|\mathbf{x}) P(w1x);这两种情形就是决策一个给定样本 x x x可能出现错误的概率。

考虑样本自身的分布后的平均错误率计算如下:
P ( error ) = ∫ − ∞ t P ( w 2 ∣ x ) p ( x ) d x + ∫ t ∞ P ( w 1 ∣ x ) p ( x ) d x = ∫ − ∞ t P ( x ∣ w 2 ) P ( w 2 ) d x + ∫ t ∞ = P ( x ∈ R 1 , w 2 ) + P ( x ∈ R 2 , w 1 ) \begin{align}P(\text{error})&=\int_{-\infty}^{t}P(w_2|\mathbf{x})p(\mathbf{x})d\mathbf{x}+\int_{t}^{\infty}P(w_1|x)p(\mathbf{x})d\mathbf{x}\\ &=\int_{-\infty}^{t}P(\mathbf{x}|w_2)P(w_2)d\mathbf{x}+\int_{t}^{\infty}\\ &= P(\mathbf{x}\in R_1,w_2)+P(\mathbf{x}\in R_2,w_1) \end{align} P(error)=tP(w2x)p(x)dx+tP(w1x)p(x)dx=tP(xw2)P(w2)dx+t=P(xR1,w2)+P(xR2,w1)

两类情形

平均错分概率:
P ( error ) = P ( x ∈ R 2 , w 1 ) + P ( x ∈ R 1 , w 2 ) = ∫ R 2 p ( x ∣ w 1 ) P ( w 1 ) d x + ∫ R 1 p ( x ∣ w 2 ) P ( w 2 ) d x = P ( x ∈ R 2 ∣ w 1 ) P ( w 1 ) + P ( x ∈ R 1 ∣ w 2 ) P ( w 2 ) P(\text{error})=P(\mathbf{x}\in R_2,w_1)+P(\mathbf{x}\in R_1,w_2)\\ =\int_{R_2}p(\mathbf{x}|w_1)P(w_1)d\mathbf{x}+\int_{R_1}p(\mathbf{x}|w_2)P(w_2)d\mathbf{x}\\ =P(\mathbf{x}\in R_2|w_1)P(w_1)+P(\mathbf{x}\in R_1|w_2)P(w_2) P(error)=P(xR2,w1)+P(xR1,w2)=R2p(xw1)P(w1)dx+R1p(xw2)P(w2)dx=P(xR2w1)P(w1)+P(xR1w2)P(w2)

例子

平均错分概率:
P ( error ) = ∫ R 2 p ( x ∣ w 1 ) P ( w 1 ) d x + ∫ R 1 p ( x ∣ w 2 ) P ( w 2 ) d x P(\text{error})=\int_{R_2}p(\mathbf{x}|w_1)P(w_1)d\mathbf{x}+\int_{R_1}p(\mathbf{x}|w_2)P(w_2)d\mathbf{x} P(error)=R2p(xw1)P(w1)dx+R1p(xw2)P(w2)dx
image-20241230161734559

多类情形

平均错分概率:
P ( error ) = ∑ i = 1 c ∑ j ≠ i P ( x ∈ R j , w i ) P(\text{error})=\sum_{i = 1}^{c}\sum_{j\neq i}P(x\in R_j,w_i) P(error)=i=1cj=iP(xRj,wi)
平均分类精度:
P ( correct ) = ∑ i = 1 c P ( x ∈ R i , w i ) = ∑ i = 1 c P ( x ∈ R i ∣ w i ) P ( w i ) = ∫ R i p ( x ∣ w i ) P ( w i ) d x \begin{align} P(\text{correct})&=\sum_{i = 1}^{c}P(\mathbf{x}\in R_i,w_i)\\ & =\sum_{i = 1}^{c}P(\mathbf{x}\in R_i|w_i)P(w_i)\\ & =\int_{R_i}p(\mathbf{x}|w_i)P(w_i)d\mathbf{x} \end{align} P(correct)=i=1cP(xRi,wi)=i=1cP(xRiwi)P(wi)=Rip(xwi)P(wi)dx

离散变量bayes决策

概率分布函数: P ( x ∣ w i ) = P ( x 1 , x 2 , … , x d ∣ w i ) P(\mathbf{x}|w_i)=P(\mathbf{x}_1,\mathbf{x}_2,\dots,\mathbf{x}_d|w_i) P(xwi)=P(x1,x2,,xdwi)

独立二值特征 (Binary features)

特征独立假设(Naïve Bayes):
P ( x ∣ ω j ) = P ( x 1 , x 2 , … , x d ∣ ω j ) = ∏ j = 1 d P ( x j ∣ ω j ) P(\mathbf{x}|\omega_j)=P(x_1,x_2,\ldots,x_d|\omega_j)=\prod_{j = 1}^{d}P(x_j|\omega_j) P(xωj)=P(x1,x2,,xdωj)=j=1dP(xjωj)

每维特征服从伯努利分布(0/1分布)

在类别 w 1 w_1 w1 下,第 i i i 个特征 x i x_i xi 取值为 1 的概率在类别 w 2 w_2 w2 下,第 i i i 个特征 x i x_i xi 取值为 1 的概率
$p_i = P(X_{i}=1w_1),\quad i = 1,\ldots,d$
$P(\mathbf{x}w_1)=\prod_{i = 1}{d}p_i{x_i}(1 - p_i)^{1 - x_i}$

似然比:
P ( x ∣ ω 1 ) P ( x ∣ ω 2 ) = ∏ i = 1 d ( p i q i ) x i ( 1 − p i 1 − q i ) 1 − x i \frac{P(\mathbf{x}|\omega_1)}{P(\mathbf{x}|\omega_2)}=\prod_{i = 1}^{d}\left(\frac{p_i}{q_i}\right)^{x_i}\left(\frac{1 - p_i}{1 - q_i}\right)^{1 - x_i} P(xω2)P(xω1)=i=1d(qipi)xi(1qi1pi)1xi
判别函数(QDF):
g ( x ) = g 1 ( x ) − g 2 ( x ) = ln ⁡ P ( x ∣ w 1 ) P ( w 1 ) − ln ⁡ P ( x ∣ w 2 ) P ( w 2 ) = ∑ i = 1 d [ x i ln ⁡ p i q i + ( 1 − x i ) ln ⁡ 1 − p i 1 − q i ] + ln ⁡ P ( w 1 ) P ( w 2 ) = ∑ i = 1 d ln ⁡ p i q i 1 − q i 1 − p i x i + ∑ i = 1 d ln ⁡ 1 − p i 1 − q i + ln ⁡ P ( w 1 ) P ( w 2 ) = ∑ i = 1 d w i x i + w 0 { w i = ln ⁡ p i ( 1 − q i ) q i ( 1 − p i ) , i = 1 , … , d w 0 = ∑ i = 1 d ln ⁡ 1 − p i 1 − q i + ln ⁡ P ( w 1 ) P ( w 2 ) \begin{align} g(\mathbf{x}) &= g_1(\mathbf{x})-g_2(\mathbf{x})=\ln P(\mathbf{x}|w_1)P(w_1)-\ln P(\mathbf{x}|w_2)P(w_2)\\ &=\sum_{i = 1}^{d}\left[x_i\ln\frac{p_i}{q_i}+(1 - x_i)\ln\frac{1 - p_i}{1 - q_i}\right]+\ln\frac{P(w_1)}{P(w_2)}\\ &=\sum^d_{i=1}\ln\frac{p_i}{q_i}\frac{1-q_i}{1-p_i}\mathbf x_i+\sum^d_{i=1}\ln\frac{1-p_i}{1-q_i}+\ln\frac{P(w_1)}{P(w_2)}\\ &=\sum_{i = 1}^{d}w_i x_i+w_0\\ &\begin{cases} w_i&=\ln\frac{p_i(1 - q_i)}{q_i(1 - p_i)},\quad i = 1,\ldots,d\\ w_0&=\sum_{i = 1}^{d}\ln\frac{1 - p_i}{1 - q_i}+\ln\frac{P(w_1)}{P(w_2)} \end{cases} \end{align} g(x)=g1(x)g2(x)=lnP(xw1)P(w1)lnP(xw2)P(w2)=i=1d[xilnqipi+(1xi)ln1qi1pi]+lnP(w2)P(w1)=i=1dlnqipi1pi1qixi+i=1dln1qi1pi+lnP(w2)P(w1)=i=1dwixi+w0{wiw0=lnqi(1pi)pi(1qi),i=1,,d=i=1dln1qi1pi+lnP(w2)P(w1)

例子 × 1 \times 1 ×1

例子是基于朴素贝叶斯分类器二分类问题,并利用独立二值特征(Binary Features)推导出分类的决策边界 g ( x ) = 0 g(x)=0 g(x)=0 的过程。

已知:
P ( ω 1 ) = 0.5 , P ( ω 2 ) = 0.5 p i = 0.8 , q i = 0.5 , i = 1 , 2 , 3 P(\omega_1)=0.5, P(\omega_2)=0.5\\ p_i = 0.8, q_i = 0.5,\quad i = 1,2,3 P(ω1)=0.5,P(ω2)=0.5pi=0.8,qi=0.5,i=1,2,3

P ( x ∣ ω 1 ) = ∏ i = 1 3 p i x i ( 1 − p i ) 1 − x i P ( x ∣ ω 2 ) = ∏ i = 1 3 q i x i ( 1 − q i ) 1 − x i g ( x ) = ∑ i = 1 3 w i x i + w 0 w i = ln ⁡ 0.8 ( 1 − 0.5 ) 0.5 ( 1 − 0.8 ) = ln ⁡ 4 = 1.3863 w 0 = ∑ i = 1 3 ln ⁡ 1 − 0.8 1 − 0.5 + ln ⁡ 0.5 0.5 = 3 ln ⁡ 2 5 = − 2.7489 P(\mathbf{x}|\omega_1)=\prod_{i = 1}^{3}p_i^{x_i}(1 - p_i)^{1 - x_i}\\ P(\mathbf{x}|\omega_2)=\prod_{i = 1}^{3}q_i^{x_i}(1 - q_i)^{1 - x_i}\\ g(\mathbf{x})=\sum_{i = 1}^{3}w_i x_i+w_0\\ w_i=\ln\frac{0.8(1 -0.5)}{0.5(1 -0.8)} =\ln4= 1.3863\\ w_0=\sum_{i = 1}^{3}\ln\frac{1 -0.8}{1 -0.5}+\ln\frac{0.5}{0.5}=3\ln\frac{2}{5}=- 2.7489 P(xω1)=i=13pixi(1pi)1xiP(xω2)=i=13qixi(1qi)1xig(x)=i=13wixi+w0wi=ln0.5(10.8)0.8(10.5)=ln4=1.3863w0=i=13ln10.510.8+ln0.50.5=3ln52=2.7489

例子 × 2 \times 2 ×2

3D binary data - P ( w 1 ) = 0.5 , P ( w 2 ) = 0.5 P(w_1)=0.5, P(w_2)=0.5 P(w1)=0.5,P(w2)=0.5 -
p 1 = p 2 = 0.8 , p 3 = 0.5 ; q i = 0.5 , i = 1 , 2 , 3 w i = ln ⁡ 0.8 ( 1 − 0.5 ) 0.5 ( 1 − 0.8 ) = ln ⁡ 4 = 1.3863 ,   i = 1 , 2 w 3 = 0 ,   i = 3 w 0 = 2 ln ⁡ 1 − 0.8 1 − 0.5 = − 1.8326 p_1 = p_2 = 0.8, p_3 = 0.5; q_i = 0.5,\quad i = 1,2,3\\ w_i=\ln\frac{0.8(1 -0.5)}{0.5(1 -0.8)} =\ln4= 1.3863,\ i=1,2\\ w_3 = 0,\ i=3\\w_0 = 2\ln\frac{1 -0.8}{1 -0.5}=- 1.8326 p1=p2=0.8,p3=0.5;qi=0.5,i=1,2,3wi=ln0.5(10.8)0.8(10.5)=ln4=1.3863, i=1,2w3=0, i=3w0=2ln10.510.8=1.8326
image-20241230173034072

复合模式分类(Compound Bayesian Decision Theory and Context)

多个样本同时分类 X = [ x 1 , x 2 , … , x n ] w = w ( 1 ) w ( 2 ) ⋯ w ( n ) \mathbf{X}=[x_1,x_2,\ldots,x_n]\quad w=w(1)w(2)\cdots w(n) X=[x1,x2,,xn]w=w(1)w(2)w(n)

比如:字符串识别

贝叶斯决策
P ( w ∣ X ) = p ( X ∣ w ) P ( w ) p ( X ) = P ( X ∣ w ) P ( w ) ∑ w ′ P ( X ∣ w ′ ) P ( w ′ ) P(w|\mathbf{X})=\frac{p(\mathbf{X}|w)P(w)}{p(\mathbf{X})} = \frac{P(\mathbf{X} | w) P(w)}{\sum_{w'} P(\mathbf{X} | w') P(w')} P(wX)=p(X)p(Xw)P(w)=wP(Xw)P(w)P(Xw)P(w)
其中:

  • P ( w ∣ X ) P(w | \mathbf{X}) P(wX) 是后验概率,即给定样本序列 X \mathbf{X} X,其属于类别 w w w 的概率。
  • P ( X ∣ w ) P(\mathbf{X} | w) P(Xw) 是类别 w w w 下样本序列 X \mathbf{X} X 的条件概率(似然)。
  • P ( w ) P(w) P(w) 是类别$w $的先验概率。
  • $P(\mathbf{X}) $是归一化项,用于保证所有类别的后验概率之和为 1。

注意: w w w类别数巨大 ( c n ) (c^n) (cn) p ( X ∣ w ) p(\mathbf{X}|w) p(Xw)存储和估计困难.

选择后验概率最大的类别:
w ∗ = arg ⁡ max ⁡ w P ( w ∣ X ) w^* = \arg\max_{w} P(w | \mathbf{X}) w=argwmaxP(wX)

条件独立:在已知类别条件下,样本之间相互独立,即:
P ( X ∣ w ) = ∏ i = 1 n P ( x i ∣ w ) P(\mathbf{X} | w) = \prod_{i=1}^n P(x_i | w) P(Xw)=i=1nP(xiw)
这种假设极大地简化了 P ( X ∣ w ) P(\mathbf{X} | w) P(Xw) 的计算,但可能会损失精度,因为在实际问题中,序列中的样本通常是相关的(例如时间序列或字符序列)。

先验假设(Prior assumption)

  • 马尔可夫链(Markov chain)

    • 先验概率可以表示为:
      P ( w ) = P [ w ( 1 ) , w ( 2 ) , … , w ( n ) ] = P [ w ( 1 ) ] ∏ j = 2 n P [ w ( j ) ∣ w ( j − 1 ) ] P(w)=P[w(1),w(2),\ldots,w(n)]=P[w(1)]\prod_{j = 2}^{n}P[w(j)|w(j - 1)] P(w)=P[w(1),w(2),,w(n)]=P[w(1)]j=2nP[w(j)w(j1)]
  • 隐马尔可夫模型(Hidden Markov model,第 3 章介绍)
    P ( X , w ) = P ( w ( 1 ) ) ∏ j = 2 n P ( w ( j ) ∣ w ( j − 1 ) ) ∏ i = 1 n P ( x i ∣ w ( i ) ) P(\mathbf{X}, w) = P(w(1)) \prod_{j=2}^n P(w(j) | w(j-1)) \prod_{i=1}^n P(x_i | w(i)) P(X,w)=P(w(1))j=2nP(w(j)w(j1))i=1nP(xiw(i))

与复合模式识别类似的问题:多分类器融合

有同一个分类问题的 K K K个分类器,对于样本 x x x,怎样使用 K K K个分类结果得到最终分类结果?

一个分类器的输出:离散变量 e k ∈ { w 1 , … , w c } e_k\in\{w_1,\dots,w_c\} ek{w1,,wc}

多个分类器的决策当作样本 x x x的多维特征,用Bayes方法重新分类:
P ( w i ∣ e 1 , … , e K ) = P ( e 1 , … , e K ∣ w i ) P ( w i ) P ( e 1 , … , e K ) , i = 1 , … , c P(w_i|e_1,\ldots,e_K)=\frac{P(e_1,\ldots,e_K|w_i)P(w_i)}{P(e_1,\ldots,e_K)},\quad i = 1,\ldots,c P(wie1,,eK)=P(e1,,eK)P(e1,,eKwi)P(wi),i=1,,c
需要估计离散空间的类条件概率 :指数级复杂度,需要大量样本
P ( e 1 , … , e K ∣ w i ) P(e_1,\ldots,e_K|w_i) P(e1,,eKwi)
特征独立假设(Naïve Bayes)
P ( e 1 , … , e K ∣ w i ) = ∏ k = 1 K P ( e k ∣ w i ) P(e_1,\ldots,e_K|w_i)=\prod_{k = 1}^{K}P(e_k|w_i) P(e1,,eKwi)=k=1KP(ekwi)

总结

在已知类条件概率密度 p ( x ∣ w j ) p(\mathbf{x}|w_j) p(xwj)和类先验分布 P ( w j ) P(w_j) P(wj)的情况下,如何基于贝叶斯决策理论对样本 x \mathbf{x} x分类的问题

  1. 单模式分类:连续特征、离散特征
  2. 复合模式分类
  3. 多分类器融合

贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 贝叶斯分类器是基于贝叶斯决策理论的分类器,其目标是最小化分类的总体风险(即误分类风险)。
    • 最小风险:通过最小化条件风险(如 0-1 损失),选择最优分类。
    • 最大后验概率决策 :在每个样本点 x \mathbf{x} x,选择后验概率最大的类别。
  • 最优的条件:概率密度 p ( x ∣ w i ) p(\mathbf{x}|w_i) p(xwi)和先验概率 P ( w i ) P(w_i) P(wi)、风险能准确估计
  • 具体的参数法(如正态分布假设)、非参数法(如 Parzen 窗、核密度估计)是贝叶斯分类器的近似,实际中难以达到最优。
  • 判别模型(如逻辑回归、支持向量机 SVM):回避了概率密度估计,以较小复杂度估计后验概率 P ( w i ∣ x ) P(w_i|\mathbf{x}) P(wix)或判别函数 g ( x ) g(\mathbf{x}) g(x)
  • 什么方法能胜过贝叶斯分类器:在不同的特征空间才有可能。

Q1: 贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 理论上:是的,贝叶斯分类器在理论上是最优的分类器,因为它最小化了分类风险。
  • 实际中:不一定,因为贝叶斯分类器依赖于概率密度函数的精确估计,而实际中往往难以精确估计这些密度函数,特别是当数据分布复杂或高维时。

Q2: 什么方法能胜过贝叶斯分类器?

  • 判别模型,如逻辑回归、SVM、神经网络等,特别是在以下情况下可能胜过贝叶斯分类器:
    1. 数据的真实分布复杂,难以准确建模。
    2. 特征空间高维,生成模型对概率估计的难度更大。
    3. 数据量有限时,生成模型容易过拟合。

{x}$分类的问题

  1. 单模式分类:连续特征、离散特征
  2. 复合模式分类
  3. 多分类器融合

贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 贝叶斯分类器是基于贝叶斯决策理论的分类器,其目标是最小化分类的总体风险(即误分类风险)。
    • 最小风险:通过最小化条件风险(如 0-1 损失),选择最优分类。
    • 最大后验概率决策 :在每个样本点 x \mathbf{x} x,选择后验概率最大的类别。
  • 最优的条件:概率密度 p ( x ∣ w i ) p(\mathbf{x}|w_i) p(xwi)和先验概率 P ( w i ) P(w_i) P(wi)、风险能准确估计
  • 具体的参数法(如正态分布假设)、非参数法(如 Parzen 窗、核密度估计)是贝叶斯分类器的近似,实际中难以达到最优。
  • 判别模型(如逻辑回归、支持向量机 SVM):回避了概率密度估计,以较小复杂度估计后验概率 P ( w i ∣ x ) P(w_i|\mathbf{x}) P(wix)或判别函数 g ( x ) g(\mathbf{x}) g(x)
  • 什么方法能胜过贝叶斯分类器:在不同的特征空间才有可能。

Q1: 贝叶斯分类器(基于贝叶斯决策的分类器)是最优的吗?

  • 理论上:是的,贝叶斯分类器在理论上是最优的分类器,因为它最小化了分类风险。
  • 实际中:不一定,因为贝叶斯分类器依赖于概率密度函数的精确估计,而实际中往往难以精确估计这些密度函数,特别是当数据分布复杂或高维时。

Q2: 什么方法能胜过贝叶斯分类器?

  • 判别模型,如逻辑回归、SVM、神经网络等,特别是在以下情况下可能胜过贝叶斯分类器:
    1. 数据的真实分布复杂,难以准确建模。
    2. 特征空间高维,生成模型对概率估计的难度更大。
    3. 数据量有限时,生成模型容易过拟合。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2273227.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

CAD批量打印可检索的PDF文件

本文虽介绍CAD使用方法,但还是劝告大家尽早放弃使用CAD软件。。。。太TM难用了 当你打开CAD时发现如下一堆图纸,但是不想一个一个打印时。你可以按照下面操作实现自动识别图框实现批量打印。 1.安装批量打印插件 2.安装后打开CAD,输入命令Bp…

BERT:深度双向Transformer的预训练用于语言理解

摘要 我们介绍了一种新的语言表示模型,名为BERT,全称为来自Transformer的双向编码器表示。与最近的语言表示模型(Peters等,2018a;Radford等,2018)不同,BERT旨在通过在所有层中联合调…

搭建企业AI助理的创新应用与案例分析

在大健康零售行业,企业面临着日益增长的市场需求和复杂的供应链管理挑战。AI助理的应用不仅能够提升客户服务效率,还能优化供应链管理,降低运营成本。 一、AI助理在大健康零售行业的创新应用 个性化健康咨询 AI助理可以通过分析客户的健康…

apex安装

安装过程复杂曲折,网上说的很多办法,貌似成功了,实际还是没起作用。 先说成功过程,执行下面命令,安装成功(当然,前提是你要先配置好编译环境): (我的环境&a…

select下拉框,首次进入页面没有显示value的情况

bug场景: 类似这种bug情况排查如下: 首先 理解含义 options就是存放键值对的,id就是key,对上了它就自动把label显示 而且如果你用来当作key和label的字段,与后端返回的不一致,还可以进行更改 其次 排查接…

krpano 实现文字热点中的三角形和竖杆

krpano 实现文字热点中的三角形和竖杆 实现文字热点中的三角形和竖杆 一个后端写前端真的是脑阔疼 一个后端写前端真的是脑阔疼 一个后端写前端真的是脑阔疼 实现文字热点中的三角形和竖杆 上图看效果 v:2549789059

playwright 录制

一、新建项目TestProject3 二、准备swagger 三、开始录制 打开PowerShell 7 (x64) cd D:\xxx\xxx\VS2022Projects\TestProject3\TestProject3\bin\Debug\net8.0 pwsh playwright.ps1 codegen --targetcsharp -b chromium localhost:5252/swagger/index.html #支持的语言 java…

uni-app 资源引用(绝对路径和相对路径)方法汇总

文章目录 一、前言🍃二、绝对路径和相对路径2.1 绝对路径2.2 相对路径 三、引用组件四、引用js4.1 js 文件引入4.2 NPM支持 五、引用css六、引用json6.1 json文件引入 七、引用静态资源7.1 模板内引入静态资源7.2 css 引入静态资源7.3 js/uts 引入静态资源7.4 静态资…

go如何从入门进阶到高级

针对Go语言的学习,不同阶段应采取不同的学习方式,以达到最佳效果.本文将Go的学习分为入门、实战、进阶三个阶段,下面分别详细介绍 一、社区 Go语言中文网 作为专注于Go语言学习与推广的平台,Go语言中文网为开发者提供了丰富的中…

现代密码学期末重点(备考ing)

现代密码学期末重点,个人备考笔记哦 密码学概念四种密码学攻击方法什么是公钥密码?什么是对称密码?什么是无条件密码? 中国剩余定理(必考)什么是原根什么是阶 经典密码学密码体制什么是列置换? …

基于SMT32U575RIT单片机-中断练习

任务 查看手册对所有的拓展板上和相对应的底板的引脚对应的端口找到以下结论 通过STM32MX软件对各个引脚进行相应的配置 1.第一种切换模式电脑发送 #include "main.h" #include "icache.h" #include "usart.h" #include "gpio.h"/*…

KCP解读:拥塞控制

本文是系列文章中的一篇,内容由浅到深进行剖析,为了方便理解建议按顺序一一阅读。 KCP技术原理 KCP解读:基础消息收发 KCP解读:重传机制 KCP解读:滑动窗口 KCP解读:拥塞控制 本文摘取https://xiaolincodin…

HCIA-Access V2.5_8_2_EPON基本架构和关键参数

EPON数据利用方式 EPON和GPON同样只有一根光纤,所以为了避免双向发送数据出现冲突,我们同样采用WDM技术,那么主要利用两个波长,一个是1490纳米的波长,一个是1310纳米的波长,下行OLT给ONU发送数据的时候&…

如何快速上手一个鸿蒙工程

作为一名鸿蒙程序猿,当你换了一家公司,或者被交接了一个已有的业务。前辈在找你之前十分钟写了一个他都看不懂的交接文档,然后把一个鸿蒙工程交接给你了,说以后就是你负责了。之后几天你的状态大概就是下边这样的,一堆…

FPGA实现UART对应的电路和单片机内部配合寄存器实现的电路到底有何区别?

一、UART相关介绍 UART是我们常用的全双工异步串行总线,常用TTL电平标准,由TXD和RXD两根收发数据线组成。 那么,利用硬件描述语言实现UART对应的电路和51单片机内部配合寄存器实现的电路到底有何区别呢?接下来我们对照看一下。 …

patchwork++地面分割学习笔记

参考资料:古月居 - ROS机器人知识分享社区 https://zhuanlan.zhihu.com/p/644297447 patchwork算法一共包含四部分内容:提出了以下四个部分:RNR、RVPF、A-GLE 和 TGR。 1)基于 3D LiDAR 反射模型的反射噪声消除 (RNR)&#xff…

【VScode】设置代理,通过代理连接服务器

文章目录 VScode编辑器设置代理1.图形化界面1.1 进入proxy设置界面1.2 配置代理服务器 2.配置文件(推荐)2.1 打开setting.json 文件2.2 配置代理 VScode编辑器设置代理 根据情况安装nmap 1.图形化界面 1.1 进入proxy设置界面 或者使用快捷键ctrl , 。…

【HarmonyOS】鸿蒙应用点9图的处理(draw9patch)

【HarmonyOS】鸿蒙应用点9图的处理(draw9patch) 一、前言: 首先在鸿蒙中是不支持安卓 .9图的图片直接使用。只有类似拉伸的处理方案,鸿蒙提供的Image组件有与点九图相同功能的API设置。 可以通过设置resizable属性来设置Resiza…

光伏仿真与设计系统应用架构深度剖析

在光伏产业蓬勃发展的时代背景下,绿虫光伏仿真与设计系统成为推动其高效发展的核心力量。其应用架构涵盖多个关键步骤,每个环节都紧密相扣,共同构建起精准且高效的设计体系。 气象分析作为开篇之笔,起着基石般的重要作用。系统全…

k8s dashboard离线部署步骤

确定k8s版本,以1.23为例。 部署metrics-server服务,最好用v0.5.2。 用v0.6.0,可能会报以下错误: nodekubemaster:~/Desktop/metric$ kubectl top nodes Error from server (ServiceUnavailable): the server is currently unabl…