随机变量的不同收敛性

news2025/3/19 8:06:20

随机变量不同收敛性:一场有趣的趋近之旅😜

一、引言

在概率论这个奇妙的世界里,随机变量就像一群调皮的小精灵🧚 它们的行为充满了不确定性。而今天我们要讲的,就是这些小精灵们的 “趋近大冒险”—— 随机变量的不同收敛性。这可是概率论里的超级重要内容,不仅理论上超酷,在实际应用中,比如统计学估计、随机过程建模这些领域,都有着大大的用处。准备好和我一起走进这场有趣的旅程了吗😎

二、依概率收敛:“越来越靠谱” 的靠近

(一)定义

想象一下,有一群小精灵 { X n } \{X_n\} {Xn},它们都想靠近一个 “目标小精灵” X X X。依概率收敛就是说,不管你给出一个多小的距离 ϵ > 0 \epsilon>0 ϵ>0(就像给它们设定一个 “误差范围”),随着时间(或者说序列的推进,也就是 n n n越来越大),这些小精灵 X n X_n Xn和目标小精灵 X X X之间的距离大于 ϵ \epsilon ϵ的概率,会越来越小,直到趋近于 0 0 0。用数学式子表示就是: lim ⁡ n → ∞ P ( ∣ X n − X ∣ ≥ ϵ ) = 0 \lim_{n\rightarrow\infty}P(|X_n - X| \geq \epsilon)=0 limnP(XnXϵ)=0,我们记作 X n → P X X_n \xrightarrow{P} X XnP X 。这就好像你让一群小朋友站成一排,然后让他们都往一个指定位置走,随着时间推移,离那个指定位置太远的小朋友的比例越来越少,几乎都能走到附近啦😃

(二)性质

唯一性:“目标只有一个”:如果这群小精灵 { X n } \{X_n\} {Xn}既想靠近小精灵 X X X,又想靠近小精灵 Y Y Y,最后发现它们依概率收敛到这两个目标,那可不得了,这就意味着 X X X Y Y Y基本上就是同一个小精灵啦,用数学语言说就是 P ( X = Y ) = 1 P(X = Y)=1 P(X=Y)=1。就好比你找宝藏,大家都找到了同一个地方,那这个地方肯定就是真正的宝藏所在地呀😜

运算性质:“一起玩耍的规律”:假设小精灵 X n X_n Xn正努力靠近 X X X,小精灵 Y n Y_n Yn也在靠近 Y Y Y,现在有一个超级有趣的 “玩耍规则” g ( x , y ) g(x,y) g(x,y)(它是个连续函数哦),那么按照这个规则一起玩耍的小精灵 g ( X n , Y n ) g(X_n,Y_n) g(Xn,Yn),也会靠近 g ( X , Y ) g(X,Y) g(X,Y)。比如说, X n X_n Xn Y n Y_n Yn在玩 “加法游戏”,那它们加起来的结果 X n + Y n X_n + Y_n Xn+Yn就会趋近于 X + Y X + Y X+Y,乘法游戏 X n Y n X_nY_n XnYn也会趋近于 X Y XY XY 。是不是很神奇🧐

(三)例子

有这么一群小精灵 X n X_n Xn,它们特别喜欢在一个长长的 “魔法区间” [ 0 , 1 ] [0,1] [0,1]里到处跑,而且是均匀地跑来跑去,也就是 X n ∼ U ( 0 , 1 ) X_n \sim U(0,1) XnU(0,1)。现在有个安静的小精灵 X = 0 X = 0 X=0。我们来看看这些调皮的 X n X_n Xn是不是会依概率靠近 X X X。对于任意给定的一个小距离 ϵ > 0 \epsilon>0 ϵ>0 P ( ∣ X n − 0 ∣ ≥ ϵ ) P(|X_n - 0| \geq \epsilon) P(Xn0∣ϵ)就是 X n X_n Xn跑到距离 0 0 0大于 ϵ \epsilon ϵ的地方的概率。因为 X n X_n Xn [ 0 , 1 ] [0,1] [0,1]均匀分布,它的概率密度函数就像一把平平的尺子,在 [ 0 , 1 ] [0,1] [0,1]上是 1 1 1,其他地方是 0 0 0。所以 P ( X n ≥ ϵ ) P(X_n \geq \epsilon) P(Xnϵ)就是从 ϵ \epsilon ϵ 1 1 1这一段的 “尺子面积”,也就是 ∫ ϵ 1 1 d x = 1 − ϵ \int_{\epsilon}^{1}1dx = 1 - \epsilon ϵ11dx=1ϵ(当 ϵ ≤ 1 \epsilon\leq1 ϵ1时)。你看,不管 n n n怎么变(其实这里 X n X_n Xn的分布和 n n n没关系),当我们一直等啊等( n → ∞ n\rightarrow\infty n), lim ⁡ n → ∞ P ( ∣ X n − 0 ∣ ≥ ϵ ) = lim ⁡ n → ∞ ( 1 − ϵ ) = 0 \lim_{n\rightarrow\infty}P(|X_n - 0| \geq \epsilon)=\lim_{n\rightarrow\infty}(1 - \epsilon)=0 limnP(Xn0∣ϵ)=limn(1ϵ)=0,这就说明这些调皮的 X n X_n Xn小精灵依概率收敛到了安静的 X = 0 X = 0 X=0小精灵那里啦😁

三、依分布收敛:“分布的奇妙传承”

(一)定义

现在我们换个角度来看这些小精灵。每个小精灵 X n X_n Xn都有自己独特的 “活动范围和频率”,这就是它的分布函数 F X n ( x ) F_{X_n}(x) FXn(x)。而目标小精灵 X X X也有自己的分布函数 F X ( x ) F_X(x) FX(x) 。依分布收敛就是说,对于 F X ( x ) F_X(x) FX(x)那些 “脾气好”(连续)的点 x x x,当 n n n变得越来越大时,小精灵 X n X_n Xn的分布函数 F X n ( x ) F_{X_n}(x) FXn(x)会越来越接近 F X ( x ) F_X(x) FX(x)。用数学式子写就是: lim ⁡ n → ∞ F X n ( x ) = F X ( x ) \lim_{n\rightarrow\infty}F_{X_n}(x)=F_X(x) limnFXn(x)=FX(x),记作 X n → d X X_n \xrightarrow{d} X Xnd X 。这就好比有一群小朋友,他们一开始在操场上的分布方式各有不同,但是随着时间变化,他们在操场上不同位置出现的频率,慢慢变得和另一个小朋友群体(目标群体)在操场上不同位置出现的频率一样啦😃

(二)性质

连续映射定理:“魔法规则下的传承”:如果小精灵 X n X_n Xn在依分布收敛到 X X X,现在有一个神奇的 “魔法规则” g ( x ) g(x) g(x)(它是连续的哦),那么按照这个魔法规则变身后的小精灵 g ( X n ) g(X_n) g(Xn),也会依分布收敛到变身后的 g ( X ) g(X) g(X)。就好像小朋友们一开始的分布趋近于某个目标分布,现在让他们都按照一个连续的动作规则来做动作,做完动作后的小朋友们的分布,还是会趋近于目标小朋友们按照同样规则做完动作后的分布🧙

“强与弱” 的关系:这里有个有趣的现象,要是小精灵 X n X_n Xn依概率收敛到 X X X,那它肯定也依分布收敛到 X X X,也就是依概率收敛更强一些。不过反过来可不行哦,有一些小精灵虽然依分布收敛,但却不依概率收敛,后面我们会看到例子😏

(三)例子

有一群叫 { X n } \{X_n\} {Xn}的小精灵,它们玩一种 “抛硬币游戏”, X n X_n Xn表示第 n n n次抛硬币正面朝上的情况。 P ( X n = 1 ) = p n P(X_n = 1)=p_n P(Xn=1)=pn P ( X n = 0 ) = 1 − p n P(X_n = 0)=1 - p_n P(Xn=0)=1pn,而且 lim ⁡ n → ∞ p n = p \lim_{n\rightarrow\infty}p_n = p limnpn=p X n X_n Xn的分布函数就像一个简单的 “开关”: F X n ( x ) = { 0 , x < 0 1 − p n , 0 ≤ x < 1 1 , x ≥ 1 F_{X_n}(x)=\begin{cases}0, & x<0 \\ 1 - p_n, & 0\leq x<1 \\ 1, & x\geq1\end{cases} FXn(x)= 0,1pn,1,x<00x<1x1

现在有个 “标准抛硬币小精灵” X X X,它正面朝上的概率是 p p p,也就是 P ( X = 1 ) = p P(X = 1)=p P(X=1)=p P ( X = 0 ) = 1 − p P(X = 0)=1 - p P(X=0)=1p,它的分布函数是 F X ( x ) = { 0 , x < 0 1 − p , 0 ≤ x < 1 1 , x ≥ 1 F_X(x)=\begin{cases}0, & x<0 \\ 1 - p, & 0\leq x<1 \\ 1, & x\geq1\end{cases} FX(x)= 0,1p,1,x<00x<1x1

我们来看看,对于 F X ( x ) F_X(x) FX(x)那些 “脾气好”(连续)的点 x ≠ 0 , 1 x\neq0,1 x=0,1,很明显 lim ⁡ n → ∞ F X n ( x ) = F X ( x ) \lim_{n\rightarrow\infty}F_{X_n}(x)=F_X(x) limnFXn(x)=FX(x)。再看 x = 0 x = 0 x=0这个点, lim ⁡ n → ∞ F X n ( 0 ) = 1 − lim ⁡ n → ∞ p n = 1 − p = F X ( 0 ) \lim_{n\rightarrow\infty}F_{X_n}(0)=1 - \lim_{n\rightarrow\infty}p_n = 1 - p=F_X(0) limnFXn(0)=1limnpn=1p=FX(0) x = 1 x = 1 x=1这个点也是, lim ⁡ n → ∞ F X n ( 1 ) = 1 = F X ( 1 ) \lim_{n\rightarrow\infty}F_{X_n}(1)=1=F_X(1) limnFXn(1)=1=FX(1)。所以这些玩抛硬币的小精灵 X n X_n Xn依分布收敛到了 “标准抛硬币小精灵” X X X那里啦😎

四、均方收敛:“误差越来越小” 的靠近

(一)定义

这次我们用一种更 “严格” 的方式来看小精灵们的靠近。均方收敛就是说,小精灵 X n X_n Xn和目标小精灵 X X X之间的 “均方误差”,也就是 E [ ( X n − X ) 2 ] E[(X_n - X)^2] E[(XnX)2],当 n n n越来越大时,会趋近于 0 0 0。写成数学式子就是: lim ⁡ n → ∞ E [ ( X n − X ) 2 ] = 0 \lim_{n\rightarrow\infty}E[(X_n - X)^2]=0 limnE[(XnX)2]=0,记作 X n → L 2 X X_n \xrightarrow{L^2} X XnL2 X 。这就好像你在训练一群小朋友投篮,每次投篮的成绩和最佳成绩之间有个误差,均方收敛就是说随着训练次数( n n n)增加,这个误差的平均值(均方误差)越来越小,最后几乎为 0 0 0,说明小朋友们投篮越来越准啦😜

(二)性质

“强者风范”:如果小精灵 X n X_n Xn均方收敛到 X X X,那它肯定也依概率收敛到 X X X,均方收敛更强哦。这是为什么呢?用切比雪夫不等式就可以解释啦。对于任意 ϵ > 0 \epsilon>0 ϵ>0 P ( ∣ X n − X ∣ ≥ ϵ ) ≤ E [ ( X n − X ) 2 ] ϵ 2 P(|X_n - X| \geq \epsilon)\leq\frac{E[(X_n - X)^2]}{\epsilon^2} P(XnXϵ)ϵ2E[(XnX)2]。因为 lim ⁡ n → ∞ E [ ( X n − X ) 2 ] = 0 \lim_{n\rightarrow\infty}E[(X_n - X)^2]=0 limnE[(XnX)2]=0,所以 lim ⁡ n → ∞ P ( ∣ X n − X ∣ ≥ ϵ ) = 0 \lim_{n\rightarrow\infty}P(|X_n - X| \geq \epsilon)=0 limnP(XnXϵ)=0,这就说明 X n X_n Xn依概率收敛到 X X X了。就好比如果小朋友投篮的平均误差都快为 0 0 0了,那离最佳成绩太远的概率肯定也很小啦😃

唯一性:“最佳只有一个”:要是小精灵 X n X_n Xn既均方收敛到 X X X,又均方收敛到 Y Y Y,那就说明 E [ ( X − Y ) 2 ] = 0 E[(X - Y)^2]=0 E[(XY)2]=0,也就意味着 P ( X = Y ) = 1 P(X = Y)=1 P(X=Y)=1,最佳目标只能有一个哦😏

(三)例子

有一群小精灵 X n X_n Xn,它们都有个特点,平均位置(均值)是 μ \mu μ,而且它们的 “活跃程度”(方差)是 1 n \frac{1}{n} n1,也就是 E ( X n ) = μ E(X_n)=\mu E(Xn)=μ D ( X n ) = 1 n D(X_n)=\frac{1}{n} D(Xn)=n1。现在有个安静的小精灵 X = μ X=\mu X=μ(它就固定在均值位置)。我们来算算它们的均方误差, E [ ( X n − X ) 2 ] = E [ ( X n − μ ) 2 ] E[(X_n - X)^2]=E[(X_n - \mu)^2] E[(XnX)2]=E[(Xnμ)2],而 E [ ( X n − μ ) 2 ] E[(X_n - \mu)^2] E[(Xnμ)2]就是方差 D ( X n ) = 1 n D(X_n)=\frac{1}{n} D(Xn)=n1。你看,随着 n n n越来越大, lim ⁡ n → ∞ E [ ( X n − X ) 2 ] = lim ⁡ n → ∞ 1 n = 0 \lim_{n\rightarrow\infty}E[(X_n - X)^2]=\lim_{n\rightarrow\infty}\frac{1}{n}=0 limnE[(XnX)2]=limnn1=0,这就说明小精灵 X n X_n Xn均方收敛到了安静的 X = μ X=\mu X=μ小精灵那里啦😁

五、各种收敛性之间的关系

“层层递进” 的关系:均方收敛就像一个超级厉害的大哥哥,它能做到的,依概率收敛这个小弟弟也能做到,而依概率收敛这个小弟弟能做到的,依分布收敛这个更小的弟弟也能做到,也就是均方收敛 ⇒ \Rightarrow 依概率收敛 ⇒ \Rightarrow 依分布收敛。这就好比大哥哥会的技能,小弟弟跟着学也能学会,小弟弟会的技能,更小的弟弟也能学会😎

“反例大揭秘”

对于依概率收敛推不出均方收敛,有这么一群调皮的小精灵 X n X_n Xn,它们的行为很奇特。 P ( X n = n ) = 1 n P(X_n = \sqrt{n})=\frac{1}{n} P(Xn=n )=n1 P ( X n = 0 ) = 1 − 1 n P(X_n = 0)=1 - \frac{1}{n} P(Xn=0)=1n1。对于任意 ϵ > 0 \epsilon>0 ϵ>0 P ( ∣ X n − 0 ∣ ≥ ϵ ) = P ( X n = n ) = 1 n P(|X_n - 0| \geq \epsilon)=P(X_n=\sqrt{n})=\frac{1}{n} P(Xn0∣ϵ)=P(Xn=n )=n1,当 n → ∞ n\rightarrow\infty n时, lim ⁡ n → ∞ P ( ∣ X n − 0 ∣ ≥ ϵ ) = 0 \lim_{n\rightarrow\infty}P(|X_n - 0| \geq \epsilon)=0 limnP(Xn0∣ϵ)=0,所以 X n X_n Xn依概率收敛到 0 0 0。但是算它们的均方误差 E [ ( X n − 0 ) 2 ] E[(X_n - 0)^2] E[(Xn0)2] E [ ( X n − 0 ) 2 ] = n × 1 n + 0 × ( 1 − 1 n ) = 1 E[(X_n - 0)^2]=n\times\frac{1}{n}+0\times(1 - \frac{1}{n}) = 1 E[(Xn0)2]=n×n1+0×(1n1)=1 lim ⁡ n → ∞ E [ ( X n − 0 ) 2 ] = 1 ≠ 0 \lim_{n\rightarrow\infty}E[(X_n - 0)^2]=1\neq0 limnE[(Xn0)2]=1=0,所以 X n X_n Xn不依均方收敛到 0 0 0,就像有些小朋友虽然在概率上能靠近目标,但是投篮误差的平均值却降不下来😔

对于依分布收敛推不出依概率收敛,假设有个小精灵 X X X,它像个快乐的小天使,在 “标准正态魔法空间” N ( 0 , 1 ) N(0,1) N(0,1)里飞来飞去。现在有个小精灵 X n = − X X_n=-X Xn=X,它就像 X X X的 “影子”,和 X X X有着一样的分布(因为 X X X − X -X X都服从标准正态分布),所以 X n → d X X_n \xrightarrow{d} X Xnd X。但是 P ( ∣ X n − X ∣ ≥ ϵ ) = P ( ∣ − X − X ∣ ≥ ϵ ) = P ( ∣ 2 X ∣ ≥ ϵ ) ≠ 0 P(|X_n - X| \geq \epsilon)=P(| - X - X| \geq \epsilon)=P(|2X| \geq \epsilon)\neq0 P(XnXϵ)=P(XXϵ)=P(∣2Xϵ)=0(对于 ϵ > 0 \epsilon>0 ϵ>0),所以 X n X_n Xn不依概率收敛到 X X X,这就好比两个小朋友群体在操场上的分布频率一样,但是每个小朋友具体的位置却相差很大😕

六、总结

随机变量的依概率收敛、依分布收敛和均方收敛,就像是小精灵们不同风格的 “趋近舞蹈”。依概率收敛是从概率角度,让小精灵们越来越靠近目标;依分布收敛则是让小精灵们的分布规律逐渐趋近;均方收敛更严格,要求误差的平均值都趋近于 0 0 0 。理解它们之间的定义、性质以及相互关系,就像是掌握了小精灵们的魔法秘籍,对于深入学习概率论与数理统计,还有在实际应用中解决各种问题,都超级有帮助。以后再遇到和随机变量有关的问题,你就可以像个厉害的魔法师一样,运用这些知识来解决啦😜

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2317668.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

工作记录 2017-02-04

工作记录 2017-02-04 序号 工作 相关人员 1 修改邮件上的问题。 更新RD服务器。 郝 更新的问题 1、DataExport的设置中去掉了ListPayors&#xff0c;见DataExport\bin\dataexport.xml 2、“IPA/Group Name” 改为 “Insurance Name”。 3、修改了Payment Posted的E…

Etcd 服务搭建

&#x1f4a2;欢迎来到张胤尘的开源技术站 &#x1f4a5;开源如江河&#xff0c;汇聚众志成。代码似星辰&#xff0c;照亮行征程。开源精神长&#xff0c;传承永不忘。携手共前行&#xff0c;未来更辉煌&#x1f4a5; 文章目录 Etcd 服务搭建预编译的二进制文件安装下载 etcd 的…

【C++】stack和queue的使用及模拟实现(含deque的简单介绍)

文章目录 前言一、deque的简单介绍1.引入deque的初衷2.deque的结构3.为什么选择deque作为stack和queue的底层默认容器 二、stack1.stack的介绍2.stack的使用3.stack的模拟实现 三、queue1.queue的介绍2.queue的使用3.queue的模拟实现 前言 一、deque的简单介绍&#xff08;引入…

MySQL原理:逻辑架构

目的&#xff1a;了解 SQL执行流程 以及 MySQL 内部架构&#xff0c;每个零件具体负责做什么 理解整体架构分别有什么模块每个模块具体做什么 目录 1 服务器处理客户端请求 1.1 MySQL 服务器端逻辑架构说明 2 Connectors 3 第一层&#xff1a;连接层 3.1 数据库连接池(Conn…

ora-600 ktugct: corruption detected---惜分飞

接手一个oracle 21c的库恢复请求,通过Oracle数据库异常恢复检查脚本(Oracle Database Recovery Check)脚本检测之后,发现undo文件offline之后,做了resetlogs操作,导致该文件目前处于WRONG RESETLOGS状态 尝试恢复数据库ORA-16433错误 SQL> recover datafile 1; ORA-00283:…

Houdini :《哪吒2》神话与科技碰撞的创新之旅

《哪吒2》&#xff08;即《哪吒之魔童闹海》&#xff09;截止至今日&#xff0c;荣登全球票房榜第五。根据猫眼专业版数据&#xff0c;截至2025年3月15日&#xff0c;《哪吒2》全球累计票房&#xff08;含预售及海外&#xff09;超过150.19亿元&#xff0c;超越《星球大战&…

flink 写入es的依赖导入问题(踩坑记录)

flink 写入es的依赖导入问题(踩坑记录) ps&#xff1a;可能只是flink低版本才会有这个问题 1. 按照官网的导入方式&#xff1a; 2. 你会在运行sql-client的时候完美得到一个错误&#xff1a; Exception in thread "main" org.apache.flink.table.client.SqlClientEx…

PCL 高斯函数拟合(正太分布)

文章目录 一、简介二、实现代码三、实现效果一、简介 类似于之前最小二乘法的做法,我们需要先确定目标函数: 通过最小二乘法,找到使预测值与实际数据残差平方和最小的参数: 不过由于这是一个非线性最小二乘问题,因此这里无法使用矩阵的形式之间求解它的解析解了,因此这里…

深度革命:ResNet 如何用 “残差连接“ 颠覆深度学习

一文快速了解 ResNet创新点 在深度学习的历史长河中&#xff0c;2015年或许是最具突破性的一年。这一年&#xff0c;微软亚洲研究院的何恺明团队带着名为ResNet&#xff08;残差网络&#xff09;的模型横空出世&#xff0c;在ImageNet图像分类竞赛中以3.57%的错误率夺冠&#…

Java基础与集合

参考 Java基础知识详解&#xff1a;从面向对象到异常处理-CSDN博客 2024年 Java 面试八股文&#xff08;20w字&#xff09;_java面试八股文-CSDN博客 基础知识 java概述 什么是java&#xff1f; java是一种面向对象的编程语言 java特点 面向对象&#xff08;继承&#…

【Python 算法零基础 1.线性枚举】

我装作漠视一切&#xff0c;以为这样就可以不在乎 —— 25.3.17 一、线性枚举的基本概念 1.时间复杂度 线性枚举的时间复杂度为 O(nm)&#xff0c;其中 n是线性表的长度。m 是每次操作的量级&#xff0c;对于求最大值和求和来说&#xff0c;因为操作比较简单&#xff0c;所以 …

003 SpringCloud整合-LogStash安装及ELK日志收集

SpringCloud整合-LogStash安装及ELK日志收集 文章目录 SpringCloud整合-LogStash安装及ELK日志收集1.安装ElasticSearch和kibana2.Docker安装logstash1.拉取docker镜像2.创建外部挂载目录3.拷贝容器内部文件到宿主机4.修改外部挂载文件5.运行docker容器 3.整合kibana1.进入kiba…

AI预测体彩排3新模型百十个定位预测+胆码预测+杀和尾+杀和值2025年3月18日第22弹

前面由于工作原因停更了很长时间&#xff0c;停更期间很多彩友一直私信我何时恢复发布每日预测&#xff0c;目前手头上的项目已经基本收尾&#xff0c;接下来恢复发布。当然&#xff0c;也有很多朋友一直咨询3D超级助手开发的进度&#xff0c;在这里统一回复下。 由于本人既精…

数据结构入门(1)——算法复杂度

目录 一、前言 二、数据结构 2.1数据结构的概念 2.2数据结构的组成 2.3算法 三、oj题引进 四、复杂度 4.1复杂度的概念 4.2大O渐进表示法 4.3时间复杂度 4.4时间复杂度计算示例 4.4.1示例1 4.4.2示例2 4.4.3示例3 4.4.4示例4 4.4.5示例5 4.4.6示例6 4.4.7示例7 4.4.8示例8 4.5空…

【最新版】智慧小区物业管理小程序源码+uniapp全开源

一.系统介绍 智慧小区物业管理小程序,包含小区物业缴费、房产管理、在线报修、业主活动报名、在线商城等功能。为物业量身打造的智慧小区运营管理系统,贴合物业工作场景,轻松提高物业费用收缴率,更有功能模块个性化组合,助力物业节约成本高效运营。 二.搭建环境 系统环…

DeepSeek搭建本地知识库

1. 注册硅基流动 首先&#xff0c;打开浏览器&#xff0c;访问硅基流动的官方网站。 https://account.siliconflow.cn/ 在注册页面准确输入你的手机号&#xff0c;完成账号注册。这是搭建本地知识库的第一步&#xff0c;为后续获取重要权限做准备。 成功注册后&#xff0c;进…

实验9 高级搜索技术1

实验9 高级搜索技术1 一、实验目的 &#xff08;1&#xff09;掌握高级搜索技术的相关理论&#xff0c;能根据实际情况选取合适的搜索方法&#xff1b; &#xff08;2&#xff09;进一步熟悉爬山法搜索技术&#xff0c;掌握其在搜索过程中的优缺点&#xff1b; &#xff08;3&…

【数据挖掘】Python基础环境安装配置

【数据挖掘】Python基础环境安装配置 一、摘要二、安装Python3.13.2三、安装Jupyter Notebook四、安装Numpy和Pandas以及matplotlib五、安装scikit-learn库和seaborn库 一、摘要 本文主要介绍如何在Windows上安装Python3.13.2&#xff0c;然后基于该Python版本安装Jupyter not…

【2025新版本】【谷粒商城版】Kubernetes

本文作者&#xff1a; slience_me 文章目录 【2025】Kubernetes1. docker安装2. kubernetes安装前3. kubeadm,kubelet,kubectl3.1 简介kubeadmkubeletkubectl常用指令 3.2 安装3.3 kubeadm初始化3.4 加入从节点(工作节点)3.5 安装Pod网络插件&#xff08;CNI&#xff09;3.6 Ku…

vulhub-Billu-b0x攻略

靶场下载链接 https://download.vulnhub.com/billu/Billu_b0x.zip 将kali和Billu,NAT连接 获取靶场ip arp-scan -l 使用diesearch进行目录扫描 dirsearch -u " " 查看目录中的信息 打开add.php,得到有上传文件功能的&#xff08;看到后面你会发现其实这里就可以完…