【国科大模式识别】第一次作业

news2024/11/16 19:25:13

【题目一】 ω max ⁡ \omega_{\max } ωmax 为类别状态, 此时对所有的 i ( i = 1 , … , c ) i(i=1, \ldots, c) i(i=1,,c), 有 P ( ω max ⁡ ∣ x ) ≥ P\left(\omega_{\max } \mid \boldsymbol{x}\right) \geq P(ωmaxx) P ( ω i ∣ x ) P\left(\omega_i \mid \boldsymbol{x}\right) P(ωix)

  1. 证明 P ( ω max ⁡ ∣ x ) ≥ 1 / c P\left(\omega_{\max } \mid \boldsymbol{x}\right) \geq 1 / c P(ωmaxx)1/c(最大值大于平均值)
    P ( ω max ⁡ ∣ x ) ≥ 1 c ∑ i = 1 c P ( ω i ∣ x ) = 1 c P\left(\omega_{\max } \mid \boldsymbol{x}\right) \geq \frac{1}{c} \sum_{i=1}^c P\left(\omega_i \mid \boldsymbol{x}\right)=\frac{1}{c} P(ωmaxx)c1i=1cP(ωix)=c1
  2. 证明对于最小错误率判定规则, 平均错误概率为
    P (  error  ) = 1 − ∫ P ( ω max ⁡ ∣ x ) p ( x ) d x P(\text { error })=1-\int P\left(\omega_{\max } \mid \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x} P( error )=1P(ωmaxx)p(x)dx

【解】 ω max  \omega_{\text {max }} ωmax  不是样本的真实类别时, 决策出错, 因此错误率为(回忆一下期望公式)
P (  error  ) = E x ( 1 − P ( ω max ⁡ ∣ x ) ) = 1 − ∫ P ( ω max ⁡ ∣ x ) p ( x ) d x P(\text { error })=\mathbb{E}_x\left(1-P\left(\omega_{\max } \mid \boldsymbol{x}\right)\right)=1-\int P\left(\omega_{\max } \mid \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x} P( error )=Ex(1P(ωmaxx))=1P(ωmaxx)p(x)dx

  1. 利用这两个结论证明 P ( e r r o r ) ≤ ( c − 1 ) / c P( error ) \leq(c-1) / c P(error)(c1)/c

【解】由 (1)(2) 的结论
P (  error  ) = 1 − ∫ P ( ω max ⁡ ∣ x ) p ( x ) d x ≤ 1 − ∫ 1 c p ( x ) d x = c − 1 c P(\text { error })=1-\int P\left(\omega_{\max } \mid \boldsymbol{x}\right) p(\boldsymbol{x}) d \boldsymbol{x} \leq 1-\int \frac{1}{c} p(\boldsymbol{x}) d \boldsymbol{x}=\frac{c-1}{c} P( error )=1P(ωmaxx)p(x)dx1c1p(x)dx=cc1

  1. 描述一种情况, 在此情况下有 P ( e r r o r ) = ( c − 1 ) / c P( error )=(c-1) / c P(error)=(c1)/c

【解】当对任意类别 i i i 都有 P ( ω i ∣ x ) = 1 / c P\left(\omega_i \mid \boldsymbol{x}\right)=1 / c P(ωix)=1/c 时, P ( e r r o r ) = ( c − 1 ) / c P(error )=(c-1) / c P(error)=(c1)/c

【题目二】对于一个 c c c 类分类问题, 假设各类先验概率为 P ( ω i ) , i = 1 , … , c P\left(\omega_i\right), i=1, \ldots, c P(ωi),i=1,,c; 条件概率密度为 P ( x ∣ ω i ) , i = 1 , … , c , ( x P\left(\boldsymbol{x} \mid \omega_i\right), i=1, \ldots, c,(\boldsymbol{x} P(xωi),i=1,,c,(x 表示特征向量 ) ) ); 将第 j j j 类样本判别为第 i i i 类的损失为 λ i j \lambda_{i j} λij

  1. 请写出贝叶斯风险最小决策和最小错误率决策的决策规则

【解】最小风险决策:
argmin ⁡ i R ( α i ∣ x ) \underset{i}{\operatorname{argmin}} R\left(\alpha_i \mid \boldsymbol{x}\right) iargminR(αix)
其中, R ( α i ∣ x ) = ∑ j = 1 c λ ( α i ∣ ω j ) P ( ω j ∣ x ) R\left(\alpha_i \mid \boldsymbol{x}\right)=\sum_{j=1}^c \lambda\left(\alpha_i \mid \omega_j\right) P\left(\omega_j \mid \boldsymbol{x}\right) R(αix)=j=1cλ(αiωj)P(ωjx).
最小错误率决策: 此时风险为 0-1 loss, 即 λ ( α i ∣ ω j ) = { 0 , i = j 1 , i ≠ j \lambda\left(\alpha_i \mid \omega_j\right)=\left\{\begin{array}{l}0, i=j \\ 1, i \neq j\end{array}\right. λ(αiωj)={0,i=j1,i=j
R ( α i ∣ x ) = ∑ j = 1 c λ ( α i ∣ ω j ) P ( ω j ∣ x ) = ∑ j ≠ i P ( ω j ∣ x ) = 1 − P ( ω i ∣ x ) R\left(\alpha_i \mid \boldsymbol{x}\right)=\sum_{j=1}^c \lambda\left(\alpha_i \mid \omega_j\right) P\left(\omega_j \mid \boldsymbol{x}\right)=\sum_{j\ne i}P\left(\omega_j \mid \boldsymbol{x}\right)=1-P\left(\omega_i \mid x\right) R(αix)=j=1cλ(αiωj)P(ωjx)=j=iP(ωjx)=1P(ωix)
决策为 arg ⁡ max ⁡ i P ( ω i ∣ x ) \underset{i}{\arg \max } P\left(\omega_i \mid x\right) iargmaxP(ωix).

  1. 引入拒识 (表示为第 c + 1 c+1 c+1 类), 假设决策损失为
    λ ( α i ∣ ω j ) = { 0 , i = j i , j = 1 , … , c λ r , i = c + 1 λ s ,  otherwise  \lambda\left(\alpha_i \mid \omega_j\right)= \begin{cases}0, & i=j \quad i, j=1, \ldots, c \\ \lambda_r, & i=c+1 \\ \lambda_s, & \text { otherwise }\end{cases} λ(αiωj)= 0,λr,λs,i=ji,j=1,,ci=c+1 otherwise 
    请写出最小风险决策的决策规则 (包括分类规则和拒识规则)

【解】注意这边按照定义, c + 1 c+1 c+1类判别为 i i i 类的风险也是 λ s \lambda_s λs(注意理解这个拒识的定义,很绕,我用排除法,如果不属于第一种情况,又不属于第二种情况,那就是第三种情况)
R ( α i ∣ x ) = ∑ j = 1 c + 1 λ ( α i ∣ ω j ) P ( ω j ∣ x ) = λ s [ 1 − P ( ω i ∣ x ) ] , i = 1 , ⋯   , c R\left(\alpha_i \mid \boldsymbol{x}\right)=\sum_{j=1}^{c+1} \lambda\left(\alpha_i \mid \omega_j\right) P\left(\omega_j \mid \boldsymbol{x}\right)=\lambda_s\left[1-P\left(\omega_i \mid \boldsymbol{x}\right)\right], i=1, \cdots, c R(αix)=j=1c+1λ(αiωj)P(ωjx)=λs[1P(ωix)],i=1,,c
注意这边按照定义, c + 1 c+1 c+1类判别为 c + 1 c+1 c+1类的风险也是 λ r \lambda_r λr
R ( α c + 1 ∣ x ) = ∑ j = 1 c + 1 λ ( α c + 1 ∣ ω j ) P ( ω j ∣ x ) = λ r R\left(\alpha_{c+1} \mid \boldsymbol{x}\right)=\sum_{j=1}^{c+1} \lambda\left(\alpha_{c+1}\mid \omega_j\right) P\left(\omega_j \mid \boldsymbol{x}\right)=\lambda_r R(αc+1x)=j=1c+1λ(αc+1ωj)P(ωjx)=λr

R i ( x ) R_i(x) Ri(x) 的定义可计算得:
R i ( x ) = { λ s [ 1 − P ( ω i ∣ x ) ] , i = 1 , ⋯   , c λ r ,  reject  R_i(x)=\left\{\begin{array}{c} \lambda_s\left[1-P\left(\omega_i \mid \boldsymbol{x}\right)\right], i=1, \cdots, c \\ \lambda_r, \text { reject } \end{array}\right. Ri(x)={λs[1P(ωix)],i=1,,cλr, reject 
因此, 带拒识的最小风险决策为:
arg ⁡ min ⁡ i R i ( x ) = { arg ⁡ max ⁡ i P ( ω i ∣ x ) ,  if  max ⁡ P ( ω i ∣ x ) > 1 − λ r / λ s  reject, otherwise  \underset{i}{\arg \min } R_i(x)=\left\{\begin{array}{c} \underset{i}{\arg \max } P\left(\omega_i \mid \boldsymbol{x}\right), \text { if } \max P\left(\omega_i \mid \boldsymbol{x}\right)>1-\lambda_r / \lambda_s \\ \text { reject, otherwise } \end{array}\right. iargminRi(x)={iargmaxP(ωix), if maxP(ωix)>1λr/λs reject, otherwise 

【题目三】考虑三维正态分布 p ( x ∣ ω ) ∼ N ( μ , Σ ) p(\boldsymbol{x} \mid \omega) \sim N(\boldsymbol{\mu}, \Sigma) p(xω)N(μ,Σ), 其中
μ = ( 1 2 2 ) , Σ = ( 1 0 0 0 5 2 0 2 5 ) \boldsymbol{\mu}=\left(\begin{array}{l} 1 \\ 2 \\ 2 \end{array}\right), \Sigma=\left(\begin{array}{lll} 1 & 0 & 0 \\ 0 & 5 & 2 \\ 0 & 2 & 5 \end{array}\right) μ= 122 ,Σ= 100052025

  1. 构造白化变换 A ω = Φ Λ − 1 / 2 \mathrm{A}_\omega=\Phi \Lambda^{-1 / 2} Aω=ΦΛ1/2, 计算分别表示本征向量和本征值的矩阵 Φ \Phi Φ Λ \Lambda Λ; 接下来, 将此分布转换为以原点为中心、协方差矩阵为单位阵的分布, 即 p ( x ∣ ω ) ∼ N ( 0 , I ) p(\boldsymbol{x} \mid \omega) \sim N(\mathbf{0}, \mathrm{I}) p(xω)N(0,I)

【解】计算可知协方差矩阵 Σ \Sigma Σ 的本征值为: λ 1 = 1 , λ 2 = 3 , λ 3 = 7 \lambda_1=1, \lambda_2=3, \lambda_3=7 λ1=1,λ2=3,λ3=7, 其对应的本征向量分别为: v 1 = ( 0 , 1 , − 1 ) T / 2 , v 2 = ( 0 , 1 , 1 ) T / 2 , v 3 = v_1=(0,1,-1)^T / \sqrt{2}, v_2=(0,1,1)^T / \sqrt{2}, v_3= v1=(0,1,1)T/2 ,v2=(0,1,1)T/2 ,v3= ( 1 , 0 , 0 ) T , Φ (1,0,0)^T, \Phi (1,0,0)T,Φ Λ \Lambda Λ A ω A_\omega Aω 为:
Φ = ( 1 0 0 0 1 / 2 1 / 2 0 − 1 / 2 1 / 2 ) , Λ = diag ⁡ ( 1 , 3 , 7 ) A ω = Φ Λ − 1 / 2 = ( 1 0 0 0 1 / 6 1 / 14 0 − 1 / 6 1 / 14 ) \begin{gathered} \Phi=\left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 / \sqrt{2} & 1 / \sqrt{2} \\ 0 & -1 / \sqrt{2} & 1 / \sqrt{2} \end{array}\right), \quad \Lambda=\operatorname{diag}(1,3,7) \\ \mathrm{A}_\omega=\Phi \Lambda^{-1 / 2}=\left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 / \sqrt{6} & 1 / \sqrt{14} \\ 0 & -1 / \sqrt{6} & 1 / \sqrt{14} \end{array}\right) \end{gathered} Φ= 10001/2 1/2 01/2 1/2 ,Λ=diag(1,3,7)Aω=ΦΛ1/2= 10001/6 1/6 01/14 1/14
在这里插入图片描述

通过变换 y = A ω T ( x − μ ) \boldsymbol{y}=\mathrm{A}_\omega{ }^T(\boldsymbol{x}-\boldsymbol{\mu}) y=AωT(xμ) 可将原分布变换到 N ( 0 , I ) N(\mathbf{0}, \mathrm{I}) N(0,I) (单纯的白化变换只能把协方差矩阵变为单位矩阵,这边要求均值为 0 0 0 ,所以还得平移一下)

  1. 将 (1) 中的白化变换应用于点 x 0 = ( 0.5 , 0 , 1 ) t \boldsymbol{x}_0=(0.5,0,1)^t x0=(0.5,0,1)t, 求其经过白化变换后的点 x ω x_\omega xω

【解】 x ω = A ω T ( x − μ ) = ( − 0.5 , − 1 / 6 , − 3 / 14 ) T \boldsymbol{x}_\omega=\mathrm{A}_\omega^T(\boldsymbol{x}-\boldsymbol{\mu})=(-0.5,-1 / \sqrt{6},-3 / \sqrt{14})^T xω=AωT(xμ)=(0.5,1/6 ,3/14 )T

  1. 通过详细计算, 证明原分布中从 x 0 \boldsymbol{x}_0 x0 到均值 μ \boldsymbol{\mu} μ 的 Mahalanobis 距离与变换后的分布中从 x ω \boldsymbol{x}_\omega xω 0 \mathbf{0} 0 的 Mahalanobis 距离相等。

【解】 x 0 x_0 x0 μ \mu μ 的马氏距离为: 89 84 , x ω \sqrt{\frac{89}{84}}, x_\omega 8489 ,xω 到 0 的马氏距离为: 89 84 \sqrt{\frac{89}{84}} 8489 , 两者相等

  1. 概率密度在一个一般的线性变换下是否保持不变? 换句话说, 对于某线性变换 T T T, 是否有 p ( x 0 ∣ N ( μ , Σ ) ) = p ( T t x 0 ∣ N ( T t μ , T t Σ T ) ) p\left(\boldsymbol{x}_0 \mid N(\boldsymbol{\mu}, \Sigma)\right)=p\left(T^t \boldsymbol{x}_0 \mid N\left(T^t \boldsymbol{\mu}, T^t \Sigma T\right)\right) p(x0N(μ,Σ))=p(Ttx0N(Ttμ,TtΣT)) ? 解释原因

【解】
p ( T t x 0 ∣ N ( T t μ , T t Σ T ) ) = 1 ( 2 π ) d / 2 ∣ T t Σ T ∣ 1 / 2 exp ⁡ ( − 1 2 ( T t x − T t μ ) t ( T t Σ T ) − 1 ( T t x − T t μ ) ) = 1 ( 2 π ) d / 2 ∣ T t Σ T ∣ 1 / 2 exp ⁡ ( − 1 2 ( x − μ ) t T T − 1 Σ − 1 T − t T t ( x − μ ) ) = 1 ( 2 π ) d / 2 ∣ Σ ∣ 1 / 2 exp ⁡ ( − 1 2 ( x − μ ) t Σ − 1 ( x − μ ) ) \begin{aligned} p\left(T^t \boldsymbol{x}_0 \mid N\left(T^t \boldsymbol{\mu}, T^t \Sigma T\right)\right) & =\frac{1}{(2 \pi)^{d / 2}\left|T^t \Sigma T\right|^{1 / 2}} \exp \left(-\frac{1}{2}\left(T^t x-T^t \mu\right)^t\left(T^t \Sigma T\right)^{-1}\left(T^t x-T^t \mu\right)\right) \\ & =\frac{1}{(2 \pi)^{d / 2}\left|T^t \Sigma T\right|^{1 / 2}} \exp \left(-\frac{1}{2}(x-\mu)^t T T^{-1} \Sigma^{-1} T^{-t} T^t(x-\mu)\right) \\ & =\frac{1}{(2 \pi)^{d / 2}|\Sigma|^{1 / 2}} \exp \left(-\frac{1}{2}(x-\mu)^t \Sigma^{-1}(x-\mu)\right) \end{aligned} p(Ttx0N(Ttμ,TtΣT))=(2π)d/2TtΣT1/21exp(21(TtxTtμ)t(TtΣT)1(TtxTtμ))=(2π)d/2TtΣT1/21exp(21(xμ)tTT1Σ1TtTt(xμ))=(2π)d/2∣Σ1/21exp(21(xμ)tΣ1(xμ))

【题目四】对一个 c c c 类分类问题, 特征向量 x ∈ R d \boldsymbol{x} \in \mathcal{R}^d xRd, 假设各类先验概率相等, 每一类条件概率密度为高斯分布

  1. 请写出类条件概率密度函数的数学形式

【解】类条件概率密度服从 d d d 维高斯分布, 故类条件概率密度函数的数学形式为:
p ( x ∣ ω i ) = 1 ( 2 π ) d / 2 ∣ Σ i ∣ 1 / 2 exp ⁡ [ − 1 2 ( x − μ i ) T Σ i − 1 ( x − μ i ) ] p\left(\boldsymbol{x} \mid \omega_i\right)=\frac{1}{(2 \pi)^{d / 2}\left|\Sigma_i\right|^{1 / 2}} \exp \left[-\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)^T \Sigma_i^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)\right] p(xωi)=(2π)d/2Σi1/21exp[21(xμi)TΣi1(xμi)]

  1. 请写出在下面两种情况下的最小错误率决策判别函数:(a) 类协方差矩阵不等; (b) 所有类协方差矩阵相等.

【解】判别函数计算公式为:
g i ( x ) = ln ⁡ p ( x ∣ ω i ) + ln ⁡ P ( ω i ) g_i(\boldsymbol{x})=\ln p\left(\boldsymbol{x} \mid \omega_i\right)+\ln P\left(\omega_i\right) gi(x)=lnp(xωi)+lnP(ωi)
类协方差矩阵不等时:可以进一步写为:
g i ( x ) = − 1 2 ( x − μ i ) T Σ i − 1 ( x − μ i ) − d 2 ln ⁡ 2 π − 1 2 ln ⁡ ∣ Σ i ∣ + ln ⁡ P ( ω i ) g_i(\boldsymbol{x})=-\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)^T \boldsymbol{\Sigma}_i^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)-\frac{d}{2} \ln 2 \pi-\frac{1}{2} \ln \left|\boldsymbol{\Sigma}_i\right|+\ln P\left(\omega_i\right) gi(x)=21(xμi)TΣi1(xμi)2dln2π21lnΣi+lnP(ωi)
不考虑与类别 i i i 无关的项, 且由于各类先验概率相等, 进一步有:
g i ( x ) = − 1 2 ( x − μ i ) T Σ i − 1 ( x − μ i ) − 1 2 ln ⁡ ∣ Σ i ∣ g_i(\boldsymbol{x})=-\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)^T \boldsymbol{\Sigma}_i^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)-\frac{1}{2} \ln \left|\boldsymbol{\Sigma}_i\right| gi(x)=21(xμi)TΣi1(xμi)21lnΣi
所有类协方差矩阵相等时: 可以进一步写为:
g i ( x ) = − 1 2 ( x − μ i ) T Σ − 1 ( x − μ i ) − d 2 ln ⁡ 2 π − 1 2 ln ⁡ ∣ Σ ∣ + ln ⁡ P ( ω i ) g_i(\boldsymbol{x})=-\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)^T \boldsymbol{\Sigma}^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)-\frac{d}{2} \ln 2 \pi-\frac{1}{2} \ln |\boldsymbol{\Sigma}|+\ln P\left(\omega_i\right) gi(x)=21(xμi)TΣ1(xμi)2dln2π21lnΣ+lnP(ωi)
不考虑与类别 i i i 无关的项, 且由于各类先验概率相等, 进一步有:
g i ( x ) = − 1 2 ( x − μ i ) T Σ − 1 ( x − μ i ) g_i(\boldsymbol{x})=-\frac{1}{2}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right)^T \boldsymbol{\Sigma}^{-1}\left(\boldsymbol{x}-\boldsymbol{\mu}_i\right) gi(x)=21(xμi)TΣ1(xμi)

  1. 在基于高斯概率密度的二次判别函数中, 当协方差矩阵为奇异时, 判别函数变得不可计算。请说出两种克服协方差奇异的方法。

【解】a. 降维, 减少特征向量的维度, 使得较低维度的协方差矩阵可逆; b. 矩阵对角化之后在特征值为 0 的位置加上小的常数; c. 求伪逆矩阵。 Σ † = ( Σ T Σ ) − 1 Σ T \boldsymbol{\Sigma}^{\dagger}=\left(\boldsymbol{\Sigma}^T \boldsymbol{\Sigma}\right)^{-1} \boldsymbol{\Sigma}^T Σ=(ΣTΣ)1ΣT

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/136675.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

理解 mysql 之 count(*)的性能问题

一、 count(*) 为什么性能差 在Mysql中,count()的作用是统计表中记录的总行数。而count()的性能跟存储引擎有直接关系,并非所有的存储引擎,count(*)的性能都很差。在Mysql中使用最多的存储引擎是:innodb 和 myisam 。 在 myisam…

手写RPC框架-整合注册中心模块设计与实现

源码地址:https://github.com/lhj502819/IRpc/tree/v2 思考 如果同一个服务有10台不同的机器进行提供,那么客户端该从哪获取这10台目标机器的ip地址信息呢?随着调用方的增加,如何对服务调用者的数据进行监控呢?服务提…

十五、类加载器、反射、xml

类加载器 1类加载器【理解】 作用 负责将.class文件(存储的物理文件)加载在到内存中 2类加载的过程【理解】 类加载时机 创建类的实例(对象)调用类的类方法访问类或者接口的类变量,或者为该类变量赋值使用反射方式来…

【C++编程调试秘籍】| 总结归纳要点

文章目录一、编译器是捕捉缺陷的最好场合1 如何使用编译器捕捉缺陷二、在运行时遇见错误该如何处理1 该输出哪些错误信息2 执行安全检查则会减低程序效率,该如何处理呢3 当运行时遇到错误时,该如何处理四、索引越界1 动态数组2 静态数组3 多维数组5 指针…

uboot驱动和Linux内核驱动有什么区别?

一、前言 uboot启动后,一些外设如DDR、EMMC、网口、串口、音频、显示等等已经被初始化,为什么Linux内核中还需要写Linux驱动呢? 二、uboot驱动和Linux驱动的区别 1、直观理解 驱动,不仅仅是为了初始化,还实现了一组…

《Linux》1.权限

1.用户 首先介绍一下Linux中的用户概念。Linux下有两种用户:超级用户(root),普通用户。 超级用户:可以再linux系统下做任何事情,不受限制 普通用户:在linux下做有限的事情。 超级用户的命令提示…

FTP回复码

FTP回复码由3个数字和对应文本组成 恢复定义为3个数字编码,紧跟一个空格 sp,然后是一行文本,以telnet的换行符表是结束 但是,某些情况下,文本内容太长超过一行,这就需要在第一行和最后一行特殊处理。处理格…

C++模拟实现栈(stack)和队列 (queue)

目录 一、栈(stack) 的介绍 二、队列(queue) 的介绍 三、容器适配器 二、deque的简单介绍 三、模拟实现stack 3.1 stack.h 3.2 test.cpp 四、模拟实现queue 4.1 queue.h 4.2 test.cpp 一、栈(stack) 的介绍 1. stack是一种容器适配…

字符串、内存函数的介绍(13)

目录 1、字符串函数 1、strlen 模拟实现: 2、strcpy 模拟实现: 3、strcat 模拟实现: 4、strcmp 模拟实现: 5、strncpy 6、strncat 7、strncmp 8、strstr 模拟实现: 9、strtok 10、strerror 11、其他字…

回顾2022年5月IB全球统考成绩,这些学校IB成绩非常亮眼

IB大考成绩放榜,全球17,3878名学生在2022年5月的考试中获得文凭课程(DP)和职业课程(CP)的成绩。今年全球640位考生获得满分45分,全球平均分31.98分。以下是部分公布公布成绩的学校: 成都树德中学国际部:在2022年的全球…

电商维权控价方法论

电商经济繁荣发展,品牌销售渠道多样化,带来流量的同时,各种渠道问题也暴露出来,如,低价、侵权……渠道秩序面临着严峻挑战,品牌生命周期也受到了威胁。所以,越来越多的品牌选择维权控价&#xf…

2022年终总结与2023新年展望

前言 时间过得太快了,虽然写博客已经很多年了,但是年终总结一直由于种种原因没有写过,2022年确实是魔幻的一年,不知不觉自己也已经研二了,因为疫情的原因突然放开,提前放假回家,借此机会写一下…

Git(七) - IDEA 集成 GIT

一、配置 Git 忽略文件 (1)问题1:为什么要忽略他们? 答:与项目的实际功能无关,不参与服务器上部署运行。把它们忽略掉能够屏蔽IDE工具之 间的差异。 (2)问题2:怎么忽略? …

TP可能用到的函数

说明 该文章来源于同事lu2ker转载至此处,更多文章可参考:https://github.com/lu2ker/ 文章目录说明in_array()filter_var()class_exists()strpos()escapeshellarg()escapeshellcmd()preg_replace()parse_str()无字母数字下划线的webshellstr_replace()e…

GNN algorithm(4): HAN, Heterogeneous Graph Attention Network

目录 background (1) heterogeneity of graph (2) semantic-level attention (3) Node-level attention (4) HAN contributions 2. Related Work 2.1 GNN 2.2 Network Embedding 3. Preliminary background 4. Proposed Model 4.1 Node-level attention ideas: …

Unity脚本(四)

视频教程:https://www.bilibili.com/video/BV12s411g7gU?p149 目录 键盘输入 InputManager 键盘输入 当通过名称指定的按键被用户按住时返回true: bool resultInput.GetKey(KeyCode.A); 当用户按下指定名称按键时的那一帧返回true:…

Python学习笔记——变量和简单数据类型

编码默认情况下,Python 3 源码文件以 UTF-8 编码,所有字符串都是 unicode 字符串。 当然你也可以为源码文件指定不同的编码。标识符第一个字符必须是字母表中字母或下划线 _ 。标识符的其他的部分由字母、数字和下划线组成。标识符对大小写敏感。在 Pyth…

【深度学习】机器学习\深度学习常见相关公开数据集汇总(图像处理相关数据集、自然语言处理相关数据集、语音处理相关数据集)

一、前言 1. 介绍 常来说,深度学习的关键在于实践。从图像处理到语音识别,每一个细分领域都有着独特的细微差别和解决方法。 然而,你可以从哪里获得这些数据呢?现在大家所看到的大部分研究论文都用的是专有数据集,这…

超声波测距传感器认知

目录 一、超声波测距传感器认知 二、从零编程实现超声波测距 三、项目——感应开关盖垃圾桶 1、开发步骤 2、感应开关盖垃圾桶代码测试 一、超声波测距传感器认知 超声波测距模块是用来测量距离的一种产品,通过发送和接收超声波,利用时间差和声音…

【网络】udp_socket编程

目录 1.认识端口号 1.1 理解端口号和进程ID 1.2 理解源端口号和目的端口号 2.认识TCP协议 3.认识UDP协议 4.网络字节序 5.socket编程接口 5.1socket常见API 5.2sockaddr结构 sockaddr结构 sockaddr_in 结构 in_addr结构 6.简单的UDP网络程序 6.1创建套接字 6.2 …