概率论 ‖ Machine Learning必备知识

news2024/7/30 13:30:33

概率论!Machine Learning必备知识

文章目录

      • 概率论!Machine Learning必备知识
        • 1 什么是概率
          • 1.1 最简单的例子
          • 1.2 概率论与数理统计的关系
        • 2 大数定律和中心极限定理
          • 2.1 大数定律是什么?
          • 2.2 代码直观理解大数定律
          • 2.3 中心极限定理
          • 2.4 大数定律和中心极限定理的区别
        • 3 概率统计中的重要分布
          • 3.1 正态分布
          • 3.2 泊松分布
        • 4 朴素贝叶斯思想
          • 4.1 理解条件概率
          • 4.2 如何理解贝叶斯公式
          • 4.3 最大似然估计

1 什么是概率

概率亦称“或然率”,它反映随机事件出现的可能性大小,在现实生活中有着极其普遍的应用。

1.1 最简单的例子

抛硬币。

假设有一个质地均匀的硬币,也就是说这个硬币抛出后落地时正面和反面朝上的可能性是相等的。

一般我们会用符号 P P P(正面)来表示硬币正面朝上的概率,其具体数值等于多次试验中正面朝上的次数除以总试验次数,即

P (  正面  ) =  正面朝上次数   总次数  P(\text { 正面 })=\frac{\text { 正面朝上次数 }}{\text { 总次数 }} P( 正面 )= 总次数  正面朝上次数 

1.2 概率论与数理统计的关系

概率论与数理统计的关系可以概括为,概率论是数理统计的理论基础,数理统计是概率论的一种应用。

例如,对于正态分布这样一种分布模型,

概率论重点研究正态分布的数学性质,如模型参数 ( μ , σ 2 ) \left(\mu, \sigma^2\right) (μ,σ2) 对于模型稳定性的影响等;

数理统计则重点研究样本数据是否符合正态分布和参数 ( μ , σ 2 ) \left(\mu, \sigma^2\right) (μ,σ2) 代表的实际含义。

2 大数定律和中心极限定理

大数定律和中心极限定理可以说是概率论的核心。它们在概率论中有着无与伦比的地位。

例如,由于中心极限定理的存在,正态分布才能够从其他众多分布中脱颖而出,成为应用最为广泛的分布。实

2.1 大数定律是什么?

简单来说,大数定律告诉我们大量重复出现的随机事件中蕴含着某种必然的规律。

保持试验条件不变,多次地重复试验,随机事件出现的概率近似于它出现的频率。

例如随机抛掷硬币,在试验次数较少的情况下,硬币出现正面或反面的概率并不稳定。你抛掷10次硬币可
能出现4次正面、6次背面,也可能出现3次正面、7次背面,还可能出现8次正面、2次背面。随机事件在试验次数较少的情况下体现的就是随机性。但是随着我们增加试验次数,正面和反面出现的次数就会越来越接近,这体现出频率的稳定性

对一般人来说,大数定律非严格的表述是这样的: X 1 , ⋯   , X n X_1, \cdots, X_n X1,,Xn 是独立同分布随机变量序列,期望为 u u u ,且

S n = X 1 + ⋯ + X n S_n=X_1+\cdots+X_n Sn=X1++Xn ,则 S n n \frac{S_n}{n} nSn 收敛到 u u u

2.2 代码直观理解大数定律

大数定律以严格的数学形式表达了随机现象的一个性质:平稳结果的稳定性或者说频率的稳定性。

下面我们用Python编写代码模拟抛硬币的过程来演示大数定律。

import random
import matplotlib.pyplot as plt


def coin_flip(min, max):  # 参数表示抛掷硬币次数大小, min代表最少抛掷次数,max 表示最多抛掷次数

    ratios = []
    x = range(min, max + 1)
    # 记录每一次抛掷的结果
    for number_Filps in x:
        numHeads = 0  # 初始化, 硬币正面朝上的计数为0
        for n in range(number_Filps):
            if random.random() < 0.5:
                numHeads += 1  # 当随机取出的数小于0.5 , 正面朝上的计数 + 1
            numTails = number_Filps - numHeads  # 用本次实验总抛掷数减去正面朝上的次数就是本次实验中反面朝上的次数
        ratios.append(numHeads / float(numTails))  # 正反面计数的比值


    plt.title("Heads / Tails Ratios")
    plt.xlabel("Numer of Flips")
    plt.ylabel("Heads / Tails")
    plt.plot(x, ratios)
    plt.hlines(1, 0, x[-1], linestyles="dashed", colors="y")
    plt.show()

coin_flip(2, 10000)

运行结果:

在这里插入图片描述

可以发现,随着抛掷硬币次数的增加,硬币正反面朝上次数的比值趋近于一个稳定值1。

也就是说,大量重复试验条件下,抛掷硬币这个随机事件体现出了频率的稳定性,这其实就是大数定律想表达的内容。

2.3 中心极限定理

【1】中心极限定理是什么?

之前说的大数定律告诉我们样本均值收敛到总体均值,但是样本均值具体是如何收敛到总体均值的则没有讲明。

这就是中心极限定理要讲述的内容。中心极限定理告诉我们,当样本量足够大时,样本均值的分布围绕总体均值呈现正态分布。

【2】代码演示中心极限定理

假设进行抛掷骰子试验,总共抛掷60 000次,并记录每次骰子朝上的数值。

① 总体情况

import numpy as np
import matplotlib.pyplot as plt

# 假设观测某人抛掷一个质地均匀的骰子, 也就是说掷出 1 - 6 的概率都是 1/6
random_data = np.random.randint(1, 7, 60000)

# 展示抛掷骰子的数值情况
print(random_data)

# 展示抛掷骰子结果的均值和标注差
print("均值为:", random_data.mean())
print("标准差为:", random_data.std())

# 直方图展示抛掷骰子的结果
plt.hist(random_data, bins=50)
plt.show()

运行结果

在这里插入图片描述

抛掷骰子结果分布比较均匀,出现次数在10 000次上下浮动。

② 单次抽样情况

我们从上述60 000次抛掷结果中,抽取100个结果作为样本来查看其均值和标准差情况。

# 从60000 次抛掷结果中, 抽取100 个结果作为样本来查看
sample_100 = []
for i in range(0, 100):
    sample_100.append(random_data[int(np.random.random() * len(random_data))])

# 展示本次从总体结果中抽取100 个结果的数值情况
print(sample_100)
# 展示本次抽取结果的均值和标准差
print("样本均值为:", np.mean(sample_100))
print("样本标准差为:", np.std(sample_100, ddof=1))

运行结果:

在这里插入图片描述

可以发现,单次抽样的样本均值和标准差与总体均值和标准差虽然较为接近,但是差别也明显。

③ 多次抽样情况

我们抽取50 000组、每组抽取100个结果来观察每组均值的分布情况。

print("***************** 多次抽样 ************************")
# 定义抽取 50000 组, 每组抽取100 个结果的均值和标准差列表
samples_100_mean = []
for i in range(0, 50000):
    sample = []
    for j in range(0, 100):
        sample.append(random_data[int(np.random.random() * len(random_data))])

    # 将 100 个结果的均值放入列表 samples_100_mean 中
    samples_100_mean.append(np.mean(sample))

samples_many_mean = np.mean(samples_100_mean)
print("多次抽取样本的总均值:", samples_many_mean)
plt.hist(samples_100_mean, bins=200)
plt.show()

在这里插入图片描述

运行结果显示,每组抽取100个结果,抽取50 000组时的总均值为3.4970636000000006,与总体均值3.4978333333333333非常接近。

将这50 000组均值通过直方图展示,可以发现这些均值形态呈现正态分布

2.4 大数定律和中心极限定理的区别

大数定律表达的核心:随着样本容量的增加,样本均值将接近总体均值。

中心极限定理表达的核心:样本独立同分布的情况下,抽样样本均值围绕总体样本均值呈现正态分布。

大数定律和中心极限定理都在描述样本的均值性质。

大数定律描述的是,随着数据量的增大,样本均值约等于总体均值。而中心极限定理描述的是,样本均值不仅接近总体均值,而且围绕总体均值呈现正态分布。大数定律揭示了大量随机变量的平均结果,但没有涉及随机变量的分布问题。而中心极限定理说明在一定条件下大量独立随机变量的平均数是以正态分布为极限的。

3 概率统计中的重要分布

3.1 正态分布

【1】正态分布是什么?

正态分布又被称为高斯分布,也称常态分布,最早由棣莫弗在求二项分布的渐近公式中得到,后来高斯在研究测量误差时从另一个角度也导出了正态分布。

正态分布的曲线形态表现为图形两头低、中间高且左右对称,因其曲线呈钟形又经常被称为钟形曲线

在这里插入图片描述

我们以一维数据为例,正态分布的定义:若随机变量 X X X服从一个数学期望为μ、方差为 σ 2 σ^ 2 σ2的正态分布,则可记为 N ( μ , σ 2 ) N\left(\mu, \sigma^2\right) N(μ,σ2) 。其

概率密度函数决定了正态分布的期望值μ的位置,其标准差 σ σ σ决定了分布的幅度。μ = 0 , σ = 1 σ = 1 σ=1 的正态分布就是标准正态分布。

【2】正态分布背后的原理

其实,正态分布背后的原理就是中心极限定理。

中心极限定理说明了大量相互独立的随机变量在抽样次数足够多的时候(一般要求大于30次),每次抽取样本的均值或者和的分布情况都逼近正态分布。

中心极限定理还指出一个重要的结论:无论随机变量呈现出什么分布,只要我们抽样次数足够多,抽取样本的均值就围绕总体的均值呈现正态分布。

随着抽取组数的增多,每次抽样的均值分布越来越趋近正态分布

抽取组数 = 5

在这里插入图片描述

抽取组数 = 50

在这里插入图片描述

抽取组数 500

在这里插入图片描述

抽取组数 = 5000

在这里插入图片描述

抽取组数 = 50000

在这里插入图片描述

抽取组数 = 500000

在这里插入图片描述

中心极限定理指出大量相互独立的随机变量的均值经适当标准化后依分布收敛于正态分布,其中有3个要素:独立、随机、相加。

3.2 泊松分布

【1】泊松分布是什么?

泊松分布(Poisson分布)是一种统计学与概率学里常见到的离散概率分布,由法国数学家西梅翁·德尼·泊松在1838年发表。

公交车站根据每天客流量的变化情况来安排班次,银行根据每天的排号人数来决定开放的柜台数,书店根据图书销售情况来备货等常见的生产、生活问题都和泊松分布息息相关。

泊松分布的概率函数为 P ( X = k ) = λ k k ! e − λ P(X=k)=\frac{\lambda^k}{k !} \mathrm{e}^{-\lambda} P(X=k)=k!λkeλ k k k = 0,1,2,3 …,

其中,参数λ指单位时间(或单位面积)内事件发生的平均概率。

泊松分布表达的含义是,单位时间里某事件发生了λ次,那么事件发生k次的概率是多少。

例如,一个公交车站有多辆不同线路的公交车,平均每10分钟就会来3辆公交车,那么10分钟内来5辆公交车的概率是多少呢?

我们根据泊松分布的公式,可以计算 P ( X = k = 5 ) = 3 5 5 ! × e − 3 = 0.100818813445 P(X=k=5)=\frac{3^5}{5 !} \times \mathrm{e}^{-3}=0.100818813445 P(X=k=5)=5!35×e3=0.100818813445

也就是说,这个公交车站10分钟内会有5辆公交车来的概率为10.08%。

经过研究,泊松分布适用的事件需要满足以下3个条件:

  • 第一,事件是小概率事件;
  • 第二,事件之间相互独立;
  • 第三,事件的概率是稳定的。

一般来说,如果某事件以固定频率λ随机且独立地发生,那么该事件在单位时间内出现的次数(个数)就可以看作服从泊松分布。

【2】泊松分布的原理

要理解泊松分布的由来首先需要理解二项分布的情况,因为泊松分布是二项分布的一种极限形式,可以通过二项分布公式取极限推导出来。

抛硬币实验就是一个典型的二项分布。

假设我们抛掷n次硬币,每次抛掷后出现正面朝上的概率是 p p p,那么最终出现 k k k次正面朝上的概率是多少?

根据排列组合公式,n次独立事件中出现k次正面朝上的概率为 P = C n k × p k × ( 1 − p ) n − k P=\mathrm{C}_n^k \times p^k \times(1-p)^{n-k} P=Cnk×pk×(1p)nk ,二项分布的数学期望 $\mu= np $。

那么这个二项分布和泊松分布有什么联系呢?我们还是以前面的公交车出现在站台事件为例来理解。我们将公交车到站和抛掷硬币进行类比,单位时间内公交车有两种结果:到站或者不到站。假设公交车到站是独立事件,单位时间内公交车到站的概率为p,那么公交车到站就服从二项分布。

时间内到站的公交车为k辆的概率就是 P = C n k × p k × ( 1 − p ) n − k P=\mathrm{C}_n^k \times p^k \times(1-p)^{n-k} P=Cnk×pk×(1p)nk

由于二项分布的数学期望 $\mu= np $ ,因此 有 p = μ / n p = \mu / n p=μ/n

当 n → ∞ 时有:

P = lim ⁡ n → ∞ C n k × p k × ( 1 − p ) n − k = lim ⁡ n → ∞ C n k × ( μ n ) k × ( 1 − μ n ) n − k = lim ⁡ n → ∞ n ( n − 1 ) ( n − 2 ) ⋯ ( n − k + 1 ) k ! × ( μ n ) k × ( 1 − μ n ) n − k = lim ⁡ n → ∞ μ k k ! × n ( n − 1 ) ( n − 2 ) ⋯ ( n − k + 1 ) n k × ( 1 − μ n ) − k × ( 1 − μ n ) n \begin{aligned} P & =\lim _{n \rightarrow \infty} C_n^k \times p^k \times(1-p)^{n-k}=\lim _{n \rightarrow \infty} C_n^k \times\left(\frac{\mu}{n}\right)^k \times\left(1-\frac{\mu}{n}\right)^{n-k} \\ & =\lim _{n \rightarrow \infty} \frac{n(n-1)(n-2) \cdots(n-k+1)}{k !} \times\left(\frac{\mu}{n}\right)^k \times\left(1-\frac{\mu}{n}\right)^{n-k} \\ & =\lim _{n \rightarrow \infty} \frac{\mu^k}{k !} \times \frac{n(n-1)(n-2) \cdots(n-k+1)}{n^k} \times\left(1-\frac{\mu}{n}\right)^{-k} \times\left(1-\frac{\mu}{n}\right)^n \end{aligned} P=nlimCnk×pk×(1p)nk=nlimCnk×(nμ)k×(1nμ)nk=nlimk!n(n1)(n2)(nk+1)×(nμ)k×(1nμ)nk=nlimk!μk×nkn(n1)(n2)(nk+1)×(1nμ)k×(1nμ)n

对其中部分求极限,可以得到部分极限值如下。

lim ⁡ n → ∞ n ( n − 1 ) ( n − 2 ) ⋯ ( n − k + 1 ) n k × ( 1 − μ n ) − k = 1  且.  lim ⁡ n → ∞ ( 1 − μ n ) n = e − μ  。因此, 上式可以化简为  P = μ k k ! e − μ  。这就是泊松分布的数学表达形式。  \begin{gathered} \lim _{n \rightarrow \infty} \frac{n(n-1)(n-2) \cdots(n-k+1)}{n^k} \times\left(1-\frac{\mu}{n}\right)^{-k}=1 \text { 且. } \\ \lim _{n \rightarrow \infty}\left(1-\frac{\mu}{n}\right)^n=\mathrm{e}^{-\mu} \text { 。因此, 上式可以化简为 } P=\frac{\mu^k}{k !} \mathrm{e}^{-\mu} \text { 。这就是泊松分布的数学表达形式。 } \end{gathered} nlimnkn(n1)(n2)(nk+1)×(1nμ)k=1 nlim(1nμ)n=eμ 。因此上式可以化简为 P=k!μkeμ 。这就是泊松分布的数学表达形式。 

由此可见,泊松分布可作为二项分布的极限而得到。

4 朴素贝叶斯思想

朴素贝叶斯是经典的机器学习算法,也是基于概率论的分类算法。朴素贝叶斯原理简单,容易实现,多用于文本分类问题,如垃圾邮件过滤。

朴素贝叶斯思想由“条件概率”这个概念发展而来,要理解朴素贝叶斯思想首先要理解条件概率。

4.1 理解条件概率

假设我们将一枚硬币连续抛掷3次,观察其出现正反两面的情况。

设“至少出现一次反面”为事件 A A A,“3次出现相同面(同正或同反)”为事件 B B B

现在,我们已经知道了事件A发生,那么事件B发生的概率是多少呢?这里已知事件A发生而求事件B发生的概率 P ( B ∣ A ) P(B|A) P(BA)就是条件概率。

我们以最经典的思路来分析,首先列出样本空间 S = 正 正 正 , 正 正 反 , 正 反 正 , 反 正 正 , 反 反 正 , 反 正 反 , 正 反 反 , 反 反 反 S={正正正,正正反,正反正,反正正,反反正,反正反,正反反,反反反} S=,共计8种情况;

事件 A = 正 正 反 , 正 反 正 , 反 正 正 , 反 反 正 , 反 正 反 , 正 反 反 , 反 反 反 A={正正反,正反正,反正正,反反正,反正反,正反反,反反反} A=, 共计7种情况

事件 B = 正 正 正 , 反 反 反 B={正正正,反反反} B=,共计2种情况。

那么应如何定义 P ( B ∣ A ) P(B| A) P(BA) 的计算公式才合理呢?

我们知道,如果没有“事件A发生”这一信息的话,那么按照古典概率的定义和计算方式,事件B发生的概率
P ( B ) = 2 / 8 = 1 / 4 P(B) = 2 / 8 = 1 /4 P(B)=2/8=1/4

但是现在情况出现了变化,即我们知道了“事件A发生”这一信息了。

因此,样本空间就不再是原来的空间S而是空间 A A A,即{正正反,正反正,反正正,反反正,反正反,正反反,反反反},共计7种情况;

而事件B对应的空间则不可能出现“正正正”这种情况,事件B的空间为 P ( A B ) P(AB) P(AB),即{反反反},共计1种情况。所

所以!知道了“事件A发生”这一条信息后, P ( B ∣ A ) = P ( A B ) P ( A ) = 1 7 ​ P(B \mid A)=\frac{P(A B)}{P(A)}=\frac{1}{7}​ P(BA)=P(A)P(AB)=71

由此,我们得到条件概率计算公式 P ( B ∣ A ) = P ( A B ) P ( A ) ​ P(B \mid A)=\frac{P(A B)}{P(A)}​ P(BA)=P(A)P(AB)

4.2 如何理解贝叶斯公式

在事件A发生的情况下,事件B发生的概率计算公式为 P ( B ∣ A ) = P ( A B ) P ( A ) P(B \mid A)=\frac{P(A B)}{P(A)} P(BA)=P(A)P(AB) [①]

那么,在事件B发生的情况下,事件A发生的概率的计算公式如何呢?

不难得到 P ( A ∣ B ) = P ( A B ) P ( B ) P(A \mid B)=\frac{P(A B)}{P(B)} P(AB)=P(B)P(AB) [② ]

综合 ① ② → P ( A ∣ B ) P ( B ) = P ( B ∣ A ) P ( A ) P(A \mid B) P(B)=P(B \mid A) P(A) P(AB)P(B)=P(BA)P(A)

变形就得到了贝叶斯公式 → P ( A ∣ B ) = P ( A ) P ( B ∣ A ) P ( B ) P(A \mid B)=\frac{P(A) P(B \mid A)}{P(B)} P(AB)=P(B)P(A)P(BA) 【妙啊】

4.3 最大似然估计

拉普拉斯说“概率论只是把常识用数学公式表达出来”,实际上我们在日常生活中很多时候都在无意识地使用最大似然原理。

【1】某次考试,老师发现有两份卷子(95分和65分)忘了写名字。老师填写学生得分表时,发现平时学习成绩较好的甲同学和平时学习成绩较差的乙同学忘了写名字。那么老师怎么填写两人的成绩表呢?

我靠,确实啊

【2】我们已经知道一个袋子中有黑白两种颜色的球,总共100个,其中一种颜色的球有95个,但具体是哪种颜色并不清楚。现在随机取出一个球发现是白球。那么袋子里究竟是白球多还是黑球多呢?

我靠

对于第【1】个问题,由于甲同学平时成绩较好,因此我们猜测得分高的卷子是甲同学的;对于第【2】个问题,数量为95的某种颜色的球被我们抽中的概率更大,所以当我们抽出来的球是白球时,我们自然会认为数量为95的球是白球,也就是白球数量更多。

在上面的两个例子中,我们并没有运用什么数学公式来计算,只是凭直觉和常识。我们认为:概率最大的事件是最可能发生的,因此现实中发生的事件往往就是概率最大的那个事件。这其实就是最大似然原理的思想。

最大似然原理中的“最大似然”表示“最大概率看起来是这个样子”,所以最大似然原理的意思其实就是“最大概率看起来是这个样子,那我们认为真实情况就是这个样子”。

最大似然估计实际上就是利用最大似然原理完成一项任务:参数估计。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/100028.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Java基础开发之编译异常和运行异常

一、getProperties()方法 1.System类提供一个getProperties()方法用来**当前系统的全部属性&#xff0c;它会返回一个Properties对象&#xff0c;也封装了系统的全部属性&#xff0c;这些属性的存在是以键值对的形式。 2.getProperties()方法使用例子&#xff1a; public cl…

《数字电子技术》笔记

《数字电子技术》笔记绪论第一章 信息和编码第二章 逻辑代数第三章 门电路第四章 组合电路的逻辑与分析第五章 触发器第七章 可编程逻辑器件绪论 什么是电子技术&#xff1f;是研究电子器件及电子器件应用的学科。EDA&#xff1a;Electronic Design Automation电子电路用处&am…

【Python机器学习】回归任务、线性回归评价指标讲解及温度与花朵数线性回归实战(图文解释 附源码)

需要源码和数据集请点赞关注收藏后评论区留言私信~~~ 与分簇、分类和标注任务不同&#xff0c;回归任务预测的不是有限的离散的标签值&#xff0c;而是无限的连续值。回归任务的目标是通过对训练样本的学习&#xff0c;得到从样本特征集到连续值之间的映射。如天气预测任务中&a…

ERC-3525 开发入门指南

ERC-3525 标准是以太坊社区批准通过的半匀质化通证&#xff08;Semifungible Token, 亦称为半同质化通证&#xff0c;简称 SFT&#xff09;标准&#xff0c;由 Solv Protocol 提出。ERC-3525 标准定义了一类新型的数字资产&#xff0c;具有以下突出优势&#xff1a;与 ERC-721 …

网曝某公司HR向求职者索要高考成绩!你们还记得自己的高考分数吗?

奇葩年年有&#xff0c;今年特别多&#xff0c;一位网友曝光&#xff1a;在应聘北京某公司的时候&#xff0c;HR竟然跟自己索要高考成绩&#xff01;网友感叹&#xff0c;遇到过在学信网查本科学位的公司&#xff0c;但这种奇葩公司没见过。有人说&#xff0c;虽然问高考成绩确…

git status 查看仓库文件状态

1. 前言 2. 各种状态 3. -s 参数 4. --ignored 查看所有被忽略的文件 1. 前言 git status 命令用于查看当前 git 中的文件状态 这个命令会将工作区、暂存区、版本库中的文件状态输出到命令行界面 git status git status 命令是 git 中最常用的命令之一&#xff0c;当我们要执…

[附源码]计算机毕业设计Python-菜篮子系统(程序+源码+LW文档)

该项目含有源码、文档、程序、数据库、配套开发软件、软件安装教程 项目运行 环境配置&#xff1a; Pychram社区版 python3.7.7 Mysql5.7 HBuilderXlist pipNavicat11Djangonodejs。 项目技术&#xff1a; django python Vue 等等组成&#xff0c;B/S模式 pychram管理等…

C++11标准模板(STL)- 算法(std::equal)

定义于头文件 <algorithm> 算法库提供大量用途的函数&#xff08;例如查找、排序、计数、操作&#xff09;&#xff0c;它们在元素范围上操作。注意范围定义为 [first, last) &#xff0c;其中 last 指代要查询或修改的最后元素的后一个元素。 确定两个元素集合是否是相…

手写Spring8(Aware感知容器变化)

文章目录目标设计思想项目结构一、实现1、定义标记接口2、容器感知类2.1、BeanFactoryAware2.2、BeanFactoryAware2.3、BeanNameAware2.4、ApplicationContextAware3、包装处理器(ApplicationContextAwareProcessor)4、注册 BeanPostProcessor5、感知调用操作二、测试1、事先准…

(附源码)springboo计算机专业大学生就业指南网 毕业设计 061355

计算机专业大学生就业指南网 摘 要 信息化社会内需要与之针对性的信息获取途径&#xff0c;但是途径的扩展基本上为人们所努力的方向&#xff0c;由于站在的角度存在偏差&#xff0c;人们经常能够获得不同类型信息&#xff0c;这也是技术最为难以攻克的课题。针对学生就业管理等…

Premiere Pro 快捷键大全(2023版)

说明&#xff1a;为避免篇幅过大&#xff0c;本文快捷键是基于 Windows 系统 Pr 2023 版本的。Mac系统下的快捷键可按以下方式进行对应&#xff1a;Ctrl→Command&#xff0c;Alt→Option。有不能对应的&#xff0c;本文会给出说明。◆ ◆ ◆媒体相关新建序列&#xff1a;Ctrl …

创建Series()对象--pandas

1. 函数功能 产生带有标签(索引)的一维数组&#xff0c;Series对象中的数据可以是任意类型&#xff08;整型、字符串、浮点型、python对象等&#xff09; 2. 函数语法 pandas.Series(dataNone, indexNone, dtypeNone, nameNone, copyFalse, fastpathFalse)3. 函数参数与示例…

猿如意初体验!赞一个。

目录 功能一&#xff1a;chatGPT 功能二、对 “效率工具”的试体验&#xff01; 功能三&#xff1a;教程文档 最后总结 猿如意传送门猿如意下载地址&#xff1a;猿如意-程序员的如意兵器,工具代码,一搜就有 猿如意使用了几次了&#xff0c;今天来想分享一下我对于猿如意的…

工程复现 -- SiamMOT

工程复现 – SiamMOT 先赞后看&#xff0c;养成好习惯&#xff0c;感谢您的理解与支持&#xff01; 参考&#xff1a; 1. siam-mot源码地址 2. SiamMOT 论文地址 3. SiamMOT 论文解析 简单介绍 SiamMOT&#xff08;SiamMOT: Siamese Multi-Object Tracking&#xff09;是…

微服务框架 SpringCloud微服务架构 服务异步通讯 53 MQ 集群 53.5 仲裁队列【SpringAMQP】

微服务框架 【SpringCloudRabbitMQDockerRedis搜索分布式&#xff0c;系统详解springcloud微服务技术栈课程|黑马程序员Java微服务】 服务异步通讯 文章目录微服务框架服务异步通讯53 MQ 集群53.5 仲裁队列【SpringAMQP】53.5.1 仲裁队列53 MQ 集群 53.5 仲裁队列【SpringAM…

Jvm学习笔记

&#x1f3b6; 文章简介&#xff1a;Jvm学习笔记 &#x1f4a1; 创作目的&#xff1a;Jvm学习笔记 ☀️ 今日天气&#xff1a;天气很好 &#x1f4dd; 每日一言&#xff1a;乾坤琉璃色&#xff0c;碧宇凝清光。 文章目录类文件结构详解一 概述二 Class 文件结构总结2.1 魔数&am…

工程机械部件的大尺寸空间精度检测仪器

工程机械作为工程建设中的重要工具&#xff0c;施工过程中长期承受各种外力&#xff0c;因此对各结构件质量要求很高&#xff0c;检测十分严格&#xff0c;通常要求的公差在0.1mm&#xff5e;0.2mm以内。工程机械部件外形尺寸及重量通常较大&#xff0c;常规仪器无法有效满足检…

【Linux权限管理】

The secret of getting ahead is getting started. 目录 1 Linux权限的概念 2 文件访问者的分类&#xff08;人&#xff09; 3 文件类型和访问权限&#xff08;事物属性&#xff09; chmod chown: chgrp: 4 文件掩码 umask 5 目录的权限 6 粘滞位 7 权限的总结 1 Linu…

【瑕疵检测】瓶盖瑕疵检测【含Matlab源码 730期】

⛄一、简介 文中将图像预处理与边缘检测相结合对瓶盖瑕疵进行检测, 先使用直方图规定化的方法对图像做出修正与增强, 再利用中值滤波的方法消除图像孤立的噪声点;Canny算子快速分辨出瓶盖瑕疵, 再利用采用Otsu阈值方法求取自适应阈值自动选择并提取瑕疵。 1 图像预处理 在特征…

Mac 使用 brew 安装 mysql

最近需要用到 MySQL 来开发项目&#xff0c;所以在 Mac 配置了下 MySQL 的环境。 1、使用 brew install mysql 安装 MySQL 安装完毕后会有以下提示信息&#xff0c;告诉我们初始安装好后 root 账户没有密码&#xff0c;只需要输入 mysql -uroot就能连接运行MySQL。 那咱们输入 …