神经网络与深度学习——第3章 线性模型

news2024/11/25 8:14:39

本文讨论的内容参考自《神经网络与深度学习》https://nndl.github.io/ 第3章 线性模型

线性模型

线性模型(Linear Model)是机器学习中应用最广泛的模型,指通过样本特征的线性组合来进行预测的模型,给定一个 D D D维样本 x = [ x 1 , . . . , x D ] T \bm x = [x_1,...,x_D]^T x=[x1,...,xD]T,其线性组合函数为
在这里插入图片描述
在分类问题中,由于输出目标 y y y是一些离散的标签,而 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)的值域为实数,因此无法直接用 f ( x ; ω ) f(\bm x;\bm \omega) f(x;ω)来进行预测,需要引入一个非线性的决策函数 g ( ⋅ ) g(\cdot) g()来预测输出目标
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

线性判别函数和决策边界

从公式(3.3)可知,一个线性分类模型线性分类器,是由一个或多个线性的判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b和非线性的决策函数 g ( ⋅ ) g(\cdot) g()组成,我们首先考虑二分类的情况,然后再扩展到多分类的情况。

二分类

二分类问题的类别标签 y y y只有两种取值,通常可以设为 + 1 , − 1 {+1,-1} +1,1 0 , 1 {0,1} 0,1。在二分类问题中,常用正例负例来分别表示属于类别+1和-1的样本。
在二分类问题中,我们只需要一个线性判别函数 f ( x ; ω ) = ω T x + b f(\bm x;\bm \omega)=\bm \omega^T x+b f(x;ω)=ωTx+b。特征空间 R D R^D RD中所有满足 f ( x ; ω ) = 0 f(\bm x; \bm \omega)=0 f(x;ω)=0的点组成一个分割超平面,称为决策边界决策平面。决策边界将特征空间一分为二,划分成两个区域,每个区域对应一个类别。
所谓“线性分类模型”就是指其决策边界是线性超平面。在特征空间中,决策平面与权重向量 ω \bm \omega ω正交,特征空间中每个样本点到决策平面的有向距离

在这里插入图片描述
3.2给出了一个二分类问题的线性决策边界示例,其中样本特征向量 x = [ x 1 , x 2 ] \bm x=[x1,x2] x=[x1,x2],权重向量 ω = [ ω 1 , ω 2 ] \bm \omega=[\omega 1,\omega 2] ω=[ω1,ω2]
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

多分类

在这里插入图片描述
在这里插入图片描述
这里解释一下这幅图:
(a)如果有C个类别,那么有C个二分类器,每个二分类器有两种类别(是这个类、不是这个类),以中间区域为例, f 1 f_1 f1显示其不属于类别1,同理,也不属于类别2、3,所以它是无法判断类别的区域。
(b)如果有C个类别,就需要 C ( C − 1 ) / 2 C(C-1)/2 C(C1)/2个二分类器,每个分类器有两种类别(是这个类,是那个类),比如说 ω 2 \omega 2 ω2 ω 3 \omega 3 ω3就训练出了一个分类器 f 2 3 f_23 f23,划分第二类或者第三类,而中间部分根据分类器投票结果得到,由于投票可能出现平票的情况,如图就是类别1、2、3各一票,因此也无法判断类别。
(c)C个分类器,但是在难以确定类别的区域,使用argmax来决策,确定为分数最高的类别。
在这里插入图片描述

Logistic回归

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述

Softmax回归

在这里插入图片描述
在这里插入图片描述

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

感知器

在这里插入图片描述

参数学习

在这里插入图片描述
这里需要解释更新权重的过程:每次分错一个样本 ( x , y ) (\bm x,y) (x,y)时,即 y ω T x < 0 y\bm \omega^T \bm x<0 yωTx<0,用 ω ^ = ω + y x \hat{\bm \omega} = \bm \omega+y\bm x ω^=ω+yx来更新权重,这样的话,当再次分这个样本的时候, y ω ^ x = y ( ω + y x ) T x = y ω T x + y 2 x T x = y ω T x + x T x > = y ω T x y\hat{\bm \omega} \bm x = y(\bm \omega + y\bm x)^T \bm x =y\bm \omega^T \bm x+y^2\bm x^T \bm x =y\bm \omega^T \bm x+\bm x^T \bm x>=y\bm \omega^T \bm x yω^x=y(ω+yx)Tx=yωTx+y2xTx=yωTx+xTx>=yωTx,所以这个值会变大,最终会大于0,也就是分类正确,所以这个更新权重的方式是合理的。
这种更新参数方式和Logistic回归区别在于,后者是更新的预测和真实值的差异,所以Logistic似乎更加合理。感知器只有犯错才更新,Logistic不管是否犯错,只要与真实分布有差异,就会更新参数。
在这里插入图片描述
在这里插入图片描述

感知器的收敛性

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参数平均感知器

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

扩展到多分类

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

广义感知器的收敛性

在这里插入图片描述
在这里插入图片描述

支持向量机

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
**支持向量机就是要找到一个超平面,让最短距离(间隔)最大,即数据集中所有样本到分割超平面的最短距离最大。**图中的两条虚线就是支持向量,上面的那个点到超平面的距离就是间隔,这就是最短距离,决策边界是由支持向量决定的。

参数学习

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

核函数

在这里插入图片描述

软间隔

支持向量原始定义必须让样本在特征空间线性可分,对于不满足线性可分约束的样本,需要引入松弛变量
在这里插入图片描述
在这里插入图片描述

损失函数对比

在这里插入图片描述
在这里插入图片描述
这里给出解释,这个图给出了平方损失、Hinge损失、交叉熵损失、感知器损失和0-1损失在二分类上的对比,横坐标 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)小于0代表分类错误,大于0是分类正确,可以看到,平方损失 L s q u a r e d = ( y − f ( x ; ω ) ) 2 = 1 − 2 y f ( x ; ω ) + ( y f ( x ; ω ) ) 2 = ( 1 − y f ( x ; ω ) ) 2 L_squared=(y-f(\bm x;\bm \omega))^2=1-2yf(\bm x;\bm \omega)+(yf(\bm x; \bm \omega))^2=(1-yf(\bm x; \bm \omega))^2 Lsquared=(yf(x;ω))2=12yf(x;ω)+(yf(x;ω))2=(1yf(x;ω))2在1左边是下降趋势,是合理的,但在1右边,命名已经分类正确并且离决策边界越来越远,但是损失函数反而上升,说明平方损失不适合二分类问题。Logistic回归的交叉熵损失求出来是公式3.104的形式,可以看出随着分类越正确,损失降低,但是即时已经划分正确了,它还是会有一部分损失,会进行参数更新。感知器损失是专门为二分类服务的,只有分错的情况才会有损失,软间隔支持向量机的损失函数相当于感知器损失函数向右平移一个单位。一个好的损失函数应该随着 y f ( x , ω ) yf(\bm x,\bm \omega) yf(x,ω)的增大而减少。

总结和深入阅读

在这里插入图片描述
在这里插入图片描述

习题

在这里插入图片描述
证明:设决策平面是 f ( x , ω ) = ω T x + b = 0 f(\bm x,\bm \omega)=\bm \omega^T \bm x+b=0 f(x,ω)=ωTx+b=0,对于 ∀ x 1 , x 2 ∈ ω T x + b = 0 \forall {x_1,x_2} \in \bm \omega^T \bm x+b=0 x1,x2ωTx+b=0,有 ω T x 1 + b = ω x 2 + b = 0 \bm \omega^T \bm x_1+b = \bm \omega \bm x_2+b = 0 ωTx1+b=ωx2+b=0,那么有 ω ( x 1 − x 2 ) = 0 \bm \omega(\bm x_1-\bm x_2)=0 ω(x1x2)=0,说明 ω \bm \omega ω和向量 x 1 − x 2 \bm {x_1-x_2} x1x2垂直,所以权重向量 ω \bm \omega ω与决策平面正交。
在这里插入图片描述
证明:点到平面的距离公式 d = ∣ A x + B y + C z + D ∣ A 2 + B 2 + C 2 d=\frac{|Ax+By+Cz+D|}{\sqrt{A^2+B^2+C^2}} d=A2+B2+C2 Ax+By+Cz+D ω T x = [ A , B , C ] x \bm \omega^T \bm x = [A, B, C]\bm x ωTx=[A,B,C]x,所以 d = ∣ f ( x ; ω ) ∣ ∣ ∣ ω ∣ ∣ d=\frac{|f(\bm x; \bm \omega)|}{||\bm \omega||} d=∣∣ω∣∣f(x;ω)
在这里插入图片描述

证明:只需证 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c(\rho \bm x_1 + (1-\rho)\bm x_2) > \bm \omega^T_{\tilde c}(\rho \bm x_1 + (1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2),因为点 x 1 \bm x_1 x1 x 2 \bm x_2 x2被分为类别 c c c,那么有 ω c T x 1 > ω c ~ T x 1 \bm \omega^T_c \bm x_1>\bm \omega^T_{\tilde c}\bm x_1 ωcTx1>ωc~Tx1 ω c T x 2 > ω c ~ T x 2 \bm \omega^T_c \bm x_2>\bm \omega^T_{\tilde c}\bm x_2 ωcTx2>ωc~Tx2,这样有 ρ ( ω c T x 1 − ω c ~ T x 1 ) > 0 , ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)>0,(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)>0,(1ρ)(ωcTx2ωc~Tx2)>0,因此有 ρ ( ω c T x 1 − ω c ~ T x 1 ) + ( 1 − ρ ) ( ω c T x 2 − ω c ~ T x 2 ) > 0 \rho (\bm \omega^T_c \bm x_1-\bm \omega^T_{\tilde c}\bm x_1)+(1-\rho) (\bm \omega^T_c \bm x_2-\bm \omega^T_{\tilde c}\bm x_2)>0 ρ(ωcTx1ωc~Tx1)+(1ρ)(ωcTx2ωc~Tx2)>0,即 ρ ω c T x 1 + ( 1 − ρ ) ω c T x 2 > ρ ω c ~ T x 1 + ( 1 − ρ ) ω c ~ T x 2 \rho \bm \omega^T_c \bm x_1+(1-\rho) \bm \omega^T_c \bm x_2>\rho \bm \omega^T_{\tilde c}\bm x_1+(1-\rho) \bm \omega^T_{\tilde c} \bm x_2 ρωcTx1+(1ρ)ωcTx2>ρωc~Tx1+(1ρ)ωc~Tx2,即 ω c T ( ρ x 1 + ( 1 − ρ ) x 2 ) > ω c ~ T ( ρ x 1 + ( 1 − ρ ) x 2 ) \bm \omega^T_c (\rho \bm x_1+(1-\rho)\bm x_2)>\bm \omega^T_{\tilde c}(\rho \bm x_1+(1-\rho)\bm x_2) ωcT(ρx1+(1ρ)x2)>ωc~T(ρx1+(1ρ)x2)。得证。
在这里插入图片描述
(1)这个其实就是“一对其余”方式的改进,一对其余是判别函数 f c f_c fc将属于类别 c c c和不属于类别 c c c划分,这题的题意是将属于类别 c c c和属于除了 c c c的其他类别划分,因此每一个样本都能根据判别函数划分开,并不存在同时不属于所有类别的情况,一定是可分的。
(2)这个就是一对一方式,会出现同时属于多个类别且投票票数相等的情况,这类区域的样本是不能划分类别的,因此该数据集不一定是线性可分的。
在这里插入图片描述
平方损失可以用于分类问题,但并不适合用于分类问题,由之前的损失函数对比图可以看出来,对于分类正确的情况,平方损失会增加,而且平方损失在Logistic回归的情况是非凸函数,容易收敛到局部最优。Logistic回归的激活函数一般是Sigmoid函数,当用平方损失时,有 L = 1 2 ( y ^ − y ) 2 L=\frac{1}{2}(\hat y-y)^2 L=21(y^y)2,对权重的导数为 ∂ L ∂ ω = ( y ^ − y ) σ ′ x \frac{\partial L}{\partial \bm \omega}=(\hat y-y)\sigma'\bm x ωL=(y^y)σx,那么进行权重更新的公式就为 ω = ω − μ ∂ L ∂ ω = ω − μ ( y ^ − y ) σ ′ x \bm \omega=\bm \omega-\mu\frac{\partial L}{\partial \bm \omega}=\bm \omega - \mu(\hat y -y)\sigma'\bm x ω=ωμωL=ωμ(y^y)σx。而Sigmoid函数在横坐标大的时候导数小,这样和参数更新的目标是相反的,在损失大的时候,参数更新反而慢,损失小的时候,梯度反而大。
在这里插入图片描述
公式3.39 R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)} R(W)=N1n=1N(y(n))Tlogy^(n),加入正则化后: R ( W ) = − 1 N ∑ n = 1 N ( y ( n ) ) T l o g y ^ ( n ) + λ W T W R(W)=-\frac{1}{N}\sum^N_{n=1} (y^{(n)})^Tlog\hat y^{(n)}+\lambda W^TW R(W)=N1n=1N(y(n))Tlogy^(n)+λWTW,对权重的导数为: ∂ R ( W ) ∂ W = − 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) + 2 λ W \frac{\partial {R(W)}}{\partial W}=-\frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}+2 \lambda W WR(W)=N1n=1N(y^(n)y(n))x(n)+2λW,更新参数的时候为 W = W + α 1 N ∑ n = 1 N ( y ^ ( n ) − y ( n ) ) x ( n ) − 2 λ W W = W+\alpha \frac{1}{N}\sum^N_{n=1} (\hat y^{(n)}-y^{(n)})x^{(n)}-2 \lambda W W=W+αN1n=1N(y^(n)y(n))x(n)2λW。可以看出,加入正则化项之后,在更新参数时每次需要减去 2 λ W 2\lambda W 2λW,使得参数不会太大,便不会造成溢出之类的错误发生,同时也会抑制过拟合。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
设预测错误的样本有 K K K个,并且设选取到这些样本时的迭代次数为 t k t_k tk,那么根据算法3.2的步骤,可以计算出: ω = y 1 x 1 + y 2 x 2 + . . . + y k x k \bm \omega = y_1\bm x_1+y_2\bm x_2+...+y_k \bm x_k ω=y1x1+y2x2+...+ykxk u = t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k x k u=t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm x_k u=t1y1x1+t2y2x2+...+tkykxk,因此, ω ‾ = ω − 1 T u = y 1 x 1 + y 2 x 2 + . . . + y k x k − 1 T ( t 1 y 1 x 1 + t 2 y 2 x 2 + . . . + t k y k y k ) = T − t 1 T y 1 x 1 + T − t 2 T y 2 x 2 + . . . + T − t k T y k x k \overline \omega=\omega-\frac{1}{T}u=y_1\bm x_1+y_2\bm x_2+...+y_k\bm x_k-\frac{1}{T}(t_1y_1\bm x_1+t_2y_2\bm x_2+...+t_ky_k\bm y_k)=\frac{T-t_1}{T} \bm y_1\bm x_1+\frac{T-t_2}{T}y_2\bm x_2+...+\frac{T-t_k}{T}y_k \bm x_k ω=ωT1u=y1x1+y2x2+...+ykxkT1(t1y1x1+t2y2x2+...+tkykyk)=TTt1y1x1+TTt2y2x2+...+TTtkykxk
而根据公式3.77 ω = ∑ t = 1 T ω t \bm \omega = \sum^T_{t=1} \omega_t ω=t=1Tωt ω t = ∑ i = 1 k < = t x i y i ω ‾ = 1 T ω \omega_t = \sum^{k<=t}_{i=1}x_iy_i\overline \omega=\frac{1}{T}\omega ωt=i=1k<=txiyiω=T1ω ω = ( x 1 y 1 + . . . + x 1 y 1 ) + ( x 1 y 1 + x 2 y 2 + . . . + x 1 y 1 + x 2 y 2 ) + . . . + ( ∑ i = 1 k x i y i + . . . + ∑ i = 1 k x i y i ) \bm \omega=(\bm x_1 y_1+...+\bm x_1 y_1)+(\bm x_1 y_1+\bm x_2 y_2+...+\bm x_1 y_1+\bm x_2 y_2)+...+(\sum^k_{i=1}\bm x_iy_i+...+\sum^k_{i=1}\bm x_i y_i) ω=(x1y1+...+x1y1)+(x1y1+x2y2+...+x1y1+x2y2)+...+(i=1kxiyi+...+i=1kxiyi)。式中,当第二个预测错误的样本被选取时才开始加 x 2 y 2 \bm x_2 y_2 x2y2,也就是说到达 t 2 t_2 t2时刻时才开始加,其中 x i y i \bm x_i y_i xiyi类似,到达 t i t_i ti时刻时开始加,因此 x i y i \bm x_i y_i xiyi共相加了 T − t i T-t_i Tti
所以 ω = ( T − t i ) x 1 y 1 + ( T − t 2 ) x 2 y 2 + . . . + ( T − t k ) x k y k \bm \omega = (T-t_i)\bm x_1 y_1+(T-t_2)\bm x_2y_2+...+(T-t_k)\bm x_k y_k ω=(Tti)x1y1+(Tt2)x2y2+...+(Ttk)xkyk ω ‾ = 1 T ω \overline \omega=\frac{1}{T} \omega ω=T1ω,得证。
在这里插入图片描述
这里不证明了,记住这个结论。
后续的习题之后有需要的时候再做。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1718097.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

定时器与PWM的LED控制

目录 一、基础概念定时器定时器类型定时器特性 PWM定义占空比原理 二、实验1.LED周期性亮灭定时器TIM2配置GPIO引脚设置工程相关参数配置Keil编写程序 2.LED呼吸灯(PWM)呼吸灯原理Keil编写程序Keil虚拟示波器&#xff0c;观察 PWM输出波形设置点击setup&#xff0c;并设置观察引…

贪心算法拓展(反悔贪心)

相信大家对贪心算法已经见怪不怪了&#xff0c;但是一旦我们的决策条件会随着我们的步骤变化&#xff0c;我们该怎么办呢&#xff1f;有没有什么方法可以反悔呢&#xff1f; 今天就来讲可以后悔的贪心算法&#xff0c;反悔贪心。 https://www.luogu.com.cn/problem/CF865Dhttp…

[图的搜索]5.图解狄克斯特拉算法及其代码演示

狄克斯特拉算法 与前面提到的贝尔曼-福特算法类似&#xff0c;狄克斯特拉&#xff08;Dijkstra&#xff09;算法也是求解最短路径问题的算法&#xff0c;使用它可以求得从起点到终点的路径中权重总和最小的那条路径路径。 图解 01 这里我们设A为起点、G为终点&#xff0c;来讲…

“揭秘乐园通行证:Spring JWT的魔法之旅

嗨&#xff0c;我将带你深入了解如何利用JWT打造一个既安全又高效的网络乐园。从基础概念到实战技巧&#xff0c;再到安全策略&#xff0c;每一步都充满惊喜。你将学会如何为乐园设置无状态的门票系统&#xff0c;如何通过RBAC和ABAC确保游客安全&#xff0c;以及如何在微服务架…

统计信号处理-匹配滤波器实现与验证(matlab仿真)

什么是匹配滤波器 匹配滤波器是一种信号处理技术&#xff0c;它用于从噪声中提取信号&#xff0c;特别是在信号与噪声比率较低的情况下。匹配滤波器之所以存在&#xff0c;是因为它在信号检测和估计方面具有几个关键的优势&#xff1a; 最大化信噪比&#xff1a;匹配滤波器设计…

数字化校园建设让学习更加广阔

校园构建数字化校园的亮点是什么&#xff1f;校园以智能服务、才智办理、数字讲堂为中心内容的智慧校园建造&#xff0c;不只使师生作业和日子更高效&#xff0c;并且使他们有更多的时刻投入到智能教育和智能学习中去&#xff0c;进步教育质量&#xff0c;使学生走出校门时紧跟…

项目管理主要文档介绍

1、商业论证&#xff1a;一般由项目发起人创建&#xff0c;用于论证项目是否对组织有财务方面的收益。商业论证创建于项日开始之前&#xff0c;用于判断项目是否需要被开展。 2、项目章程&#xff1a;一般由项日经理创建,并由发起入和关键相关力提供输人&#xff0c;最后经项目…

MATLAB函数模块光显示zeros/poles怎么办?

出现下面这种图了怎么办&#xff1f;是做错了吗&#xff1f; 这种图就是它显示不完整了&#xff0c;把它拉大点就可以完全显示了。

【机器学习】深入探索机器学习:利用机器学习探索股票价格预测的新路径

❀机器学习 &#x1f4d2;1. 引言&#x1f4d2;2. 多种机器学习算法的应用&#x1f4d2;3. 机器学习在股票价格预测中的应用现状&#x1f389;数据收集与预处理&#x1f389;模型构建与训练&#x1f308;模型评估与预测&#x1f31e;模型评估&#x1f319;模型预测⭐注意事项 &…

检定记录内容解析:非红外二氧化硫气体检测仪的维护与验证

在工业生产与环境保护中&#xff0c;二氧化硫作为一种常见的有害气体&#xff0c;其浓度的监测和控制显得尤为重要。 非红外二氧化硫气体检测仪以其独特的检测原理和高灵敏度&#xff0c;在二氧化硫监测领域发挥着不可或缺的作用。 在这篇文章中&#xff0c;佰德将详细介绍非…

【原创】springboot+mysql校园通讯录管理系统设计与实现

个人主页&#xff1a;程序猿小小杨 个人简介&#xff1a;从事开发多年&#xff0c;Java、Php、Python、前端开发均有涉猎 博客内容&#xff1a;Java项目实战、项目演示、技术分享 文末有作者名片&#xff0c;希望和大家一起共同进步&#xff0c;你只管努力&#xff0c;剩下的交…

MongoDB CRUD操作:插入文档

MongoDB CRUD操作&#xff1a;插入文档 文章目录 MongoDB CRUD操作&#xff1a;插入文档使用MongoDB Atlas UI插入文档插入单个文档插入多个文档插入行为自动创建集合_id字段原子性写确认 在MongoDB中插入文档的集中方式&#xff1a; 使用编程语言提供的驱动程序&#xff0c;在…

【第七节】C++的STL基本使用

目录 前言 一、STL简介 1.1 STL基本概念 1.2 STL六大组件 1.3 STL优点 二、STL三大组件 2.1 容器 2.2 算法 2.3 迭代器 三、STL常见的容器 3.1 string容器 3.1.1 string容器基本概念 3.1.2 string容器的常用操作 3.1.2.1 string 构造函数 3.1.2.2 string 基本赋…

U盘格式化怎么操作?快来学这4种法

U盘格式化怎么操作&#xff1f;在计算机领域中&#xff0c;格式化通常指对存储设备&#xff08;如硬盘、U盘&#xff09;进行格式化操作&#xff0c;清空其中的数据并重新建立文件系统&#xff0c;以便进行数据存储和管理。 U盘格式化一共有哪些方法&#xff1f;在格式化U盘之…

SJ701-II安全帽耐冲击穿刺测试仪

一、主要用途 主要用于安全帽耐冲击性能和耐穿刺性能试验。 二、仪器特征 整机创新全新结构&#xff0c;并获得国家专利&#xff08;专利号201420182139.8&#xff09; 1、整机结构&#xff1a;首创采用欧标型材组装成型&#xff0c;内藏式线路折叠式结构。结构美观耐用&…

07.爬虫---使用session发送请求

07.使用session发送请求 1.目标网站2.代码实现 1.目标网站 我们以这个网站作为目标网站 http://www.360doc.com/ 注册用户 注册后从登录界面获取到这些信息 2.代码实现 import requestssession requests.Session() url http://www.360doc.com/ajax/login/login.ashx u…

基于SSM框架的手机商城项目

后端: 订单管理 客户管理&#xff1a; 商品管理 类目管理 前端&#xff1a; 首页&#xff1a;

windows 在cmd 使用cd命令无法进入指定目录解决方法

目录预览 一、问题描述二、原因分析三、解决方案四、参考链接 一、问题描述 使用cmd命令想要快速进入某个目录&#xff0c;发现没有跳转&#xff0c;如下&#xff1a; 二、原因分析 cmd 切换目录跨磁盘的话&#xff0c;需要先进行磁盘的转换&#xff0c;也就是要进入到另外一…

码蹄集部分题目(2024OJ赛17期;二分+差分+ST表+单调队列+单调栈)

1&#x1f40b;&#x1f40b;小码哥处理订单&#xff08;钻石&#xff1b;二分差分&#xff09; 时间限制&#xff1a;1秒 占用内存&#xff1a;128M &#x1f41f;题目描述 &#x1f41f;题目思路 【码蹄集进阶塔全题解07】算法基础&#xff1a;二分 MT2070 – MT2079_哔哩…

Kafka系列之高频面试题

基础 简介 特点&#xff1a; 高吞吐、低延迟&#xff1a;kafka每秒可以处理几十万条消息&#xff0c;延迟最低只有几毫秒&#xff0c;每个Topic可以分多个Partition&#xff0c;Consumer Group对Partition进行Consumer操作可扩展性&#xff1a;Kafka集群支持热扩展持久性、可…