【AI算法岗面试八股面经【超全整理】——机器学习】

news2024/11/26 6:51:11

AI算法岗面试八股面经【超全整理】

  • 概率论
  • 信息论
  • 机器学习
  • 深度学习
  • CV
  • NLP

目录

    • 1、回归损失函数
    • 2、分类损失函数
    • 3、误差(Error)、偏差(Bias)、方差(Variance)
    • 4、PCA(Principle Component Analysis,主成分分析)
    • 5、数据不均衡
    • 6、特征选择
    • 7、LR(Logistics Regression)
    • 8、特征工程
    • 9、树模型进行特征工程的原因
    • 10、AdaBoost(Adaptive Boosting)
    • 11、GBDT(Gradient Boosting Decision Tree)
    • 12、LR和GBDT
    • 13、RF和GBDT
    • 14、线性模型、非线性模型
    • 15、感知机
    • 16、排序算法
    • 17、常用的推荐系统算法:
    • 18、实现推荐系统

1、回归损失函数

均方误差(Mean Square Error,MSE)(二次损失,L2损失,L2 Loss)
MSE是目标变量与预测值之间距离的平方和
M S E = 1 N ∑ i = 1 N ( y i − y i p ) 2 MSE=\frac {1}{N}\sum _{i=1}^{N} {(y_i-y_i^p)}^2 MSE=N1i=1N(yiyip)2

平均绝对误差(Mean Absolute Error,MAE)(L1损失,L1 Loss)
MAE是目标值与预测值之间的绝对差的总和
M A E = 1 N ∑ i = 1 N ∣ y i − y i p ∣ MAE=\frac {1}{N}\sum _{i=1}^{N} |y_i-y_i^p| MAE=N1i=1Nyiyip
MSE VS MAE

  • MSE收敛速度快,且随着误差减小,梯度也在减小,这有利于函数的收敛,即使固定学习率,函数也能较快收敛到最小值;MAE的曲线呈V字型,连续但在 y − f ( x ) = 0 y-f(x)=0 yf(x)=0处不可导,计算机求导比较难。且MAE大部分情况下梯度相等,这意味着即使对于小的损失值,其梯度也是大的,不利于函数的收敛和模型的学习。
  • 如果样本中存在离群点,MSE会给离群点赋予更高的权重,但是却是以牺牲其他正常数据点的预测效果为代价,因此会导致降低模型的整体性能;由于MAE计算的是绝对误差,没有平方项的作用,惩罚力度相同,因此MAE相对于MSE对离群点不过分敏感,拟合直线能够更好地表征正常数据的分布情况,其鲁棒性更好。

最小二乘法和MSE

  • 基于均方误差最小化来进行模型求解的方法称为“最小二乘法”。——周志华《机器学习》
  • 最小二乘法作为损失函数:没有除以总样本数N;均方误差MSE:除以总样本数N

2、分类损失函数

二分类交叉熵损失
L = 1 N ∑ i − [ y i ⋅ log ⁡ ( p i ) + ( 1 − y i ) ⋅ log ⁡ ( 1 − p i ) ] L=\frac{1}{N}\sum _{i}-[y_i \cdot \log (p_i)+(1-y_i)\cdot \log (1-p_i)] L=N1i[yilog(pi)+(1yi)log(1pi)]
交叉熵刻画的是两个概率分布之间的距离。交叉熵越小,两个概率分布越接近。

多分类交叉熵损失
L = − 1 N ∑ i ∑ c = 1 M y i c ⋅ log ⁡ ( p i c ) L=-\frac{1}{N}\sum_{i}\sum_{c=1}^{M}y_{ic}\cdot \log (p_{ic}) L=N1ic=1Myiclog(pic)

二分类为什么用交叉熵损失而不用MSE损失
MSE无差别关注全部类别预测概率和真实概率的差;交叉熵关注的是正确类别的预测概率。

最大似然估计和二分类交叉熵
在二分类问题中,将映射函数的输出记为Y,可以使分类问题中的标签0和1,采样结果为 ( X i , Y i ) {(X_i,Y_i)} (Xi,Yi),当 Y i = 1 Y_i=1 Yi=1时似然函数为 f ( X i , θ ) f(X_i,\theta) f(Xi,θ),当 Y i = 0 Y_i=0 Yi=0时似然函数为 1 − f ( X i , θ ) 1-f(X_i,\theta) 1f(Xi,θ),此时将似然函数写成如下形式:
L θ = ∏ i f ( X i , θ ) Y i ( 1 − f ( X i , θ ) ) 1 − Y i L_\theta=\prod_{i} f{(X_i,\theta)}^{Y_i}{(1-f(X_i,\theta))^{1-Y_i}} Lθ=if(Xi,θ)Yi(1f(Xi,θ))1Yi
最大似然估计为:
θ ^ = arg ⁡ max ⁡ θ ∏ i f ( X i , θ ) Y i ( 1 − f ( X i , θ ) ) 1 − Y i \widehat{\theta}=\arg\max_{\theta} \prod_{i} f{(X_i,\theta)}^{Y_i}{(1-f(X_i,\theta))^{1-Y_i}} θ =argθmaxif(Xi,θ)Yi(1f(Xi,θ))1Yi
一般求解最大似然估计问题,都会取对数将连乘转换为连加,并且由此可以推导出二分类的交叉熵损失函数,由于 L θ ∝ log ⁡ L θ L_{\theta}\propto \log{L_{\theta}} LθlogLθ
θ ^ = arg ⁡ max ⁡ θ log ⁡ L θ = arg ⁡ max ⁡ θ ∑ i Y i log ⁡ f ( X i , θ ) + ( 1 − Y i ) log ⁡ ( 1 − f ( X i , θ ) ) = arg ⁡ max ⁡ θ ∑ i Y i log ⁡ Y i ^ + ( 1 − Y i ) log ⁡ ( 1 − Y i ^ ) \widehat{\theta}=\arg\max_{\theta}\log{L_{\theta}}=\arg\max_{\theta} \sum_{i} Y_i\log{f(X_i,\theta)}+(1-Y_i)\log{(1-f(X_i,\theta))}\\=\arg\max_{\theta} \sum_{i} Y_i\log{\hat{Y_i}}+(1-Y_i)\log{(1-\hat{Y_i})} θ =argθmaxlogLθ=argθmaxiYilogf(Xi,θ)+(1Yi)log(1f(Xi,θ))=argθmaxiYilogYi^+(1Yi)log(1Yi^)
最优化问题通常求最小值,加上负号就得到了二分类的交叉熵损失函数:
B C E L o s s = − ∑ i Y i log ⁡ Y i ^ + ( 1 − Y i ) log ⁡ ( 1 − Y i ^ ) BCELoss=-\sum_{i} Y_i\log{\hat{Y_i}}+(1-Y_i)\log{(1-\hat{Y_i})} BCELoss=iYilogYi^+(1Yi)log(1Yi^)

3、误差(Error)、偏差(Bias)、方差(Variance)

  • 误差是模型预测结果与实际值之间的差异。在模型训练过程中,目标通常是尽可能地减少这种误差
  • 偏差是模型预测的平均误差,或者说是模型对真实数据的预测值与实际值的差异的期望值。一个高偏差的模型可能会忽略数据中的某些重要细节,导致模型过于简单,这种情况我们通常称之为欠拟合;偏差表征模型对数据的拟合能力
  • 方差是模型预测值的变化范围或者说离散程度,它反映了模型对输入微小改变的敏感度。高方差可能导致模型对数据中的随机噪声过于敏感,导致模型过于复杂,我们通常称之为过拟合;方差表征数据集的变动导致的学习性能的变化,也就是泛化能力

4、PCA(Principle Component Analysis,主成分分析)

PCA的主要思想是将n维特征映射到k维上,这k维是全新的正交特征,也被称为主成分,是在原有n维特征的基础上重新构造出来的k维特征。

输入:数据集 X = x 1 , x 2 , x 3 , … , x n X={x_1,x_2,x_3,\dots ,x_n} X=x1,x2,x3,,xn,需要降到k维。
1、基于特征值分解协方差矩阵实现PCA

  • 去平均值(即去中心化),即每一位特征减去各自的平均值;
  • 计算协方差矩阵 1 n X X T \frac{1}{n}XX^T n1XXT
  • 特征值分解方法求协方差矩阵 1 n X X T \frac{1}{n}XX^T n1XXT的特征值与特征向量
  • 对特征值从大到小排序,选择其中最大的k个,然后将其对应的k个特征向量分别作为行向量组成特征向量矩阵P
  • 将数据转换到k个特征向量构建的新矩阵中,即 Y = P X Y=PX Y=PX

2、基于SCD分解协方差矩阵实现PCA

  • 去平均值
  • 计算协方差矩阵
  • 通过SVD计算协方差矩阵的特征值与特征向量
  • … \dots
  • … \dots

5、数据不均衡

考虑正例很少,负例很多的解决方法:

  • 欠采样:对负例进行欠采样。一种代表性算法是将负例分为很多份,每次用其中一份和正例一起训练,最后用集成学习综合结果;
  • 过采样:对正例进行过采样。一种代表性方法是对正例进行线性插值来获得更多的正例;
  • 调整损失函数:训练时正常训练,分类时将数据不平衡问题加入到决策过程中。通过加入权值使得数量较少的正样本得到更多的关注,不至于被大量的负样本掩盖;
  • 组合/集成学习:例如正负样本比例1:100,则将负样本分为100份,正样本每次有放回采样保持与负样本数相同,然后取100次结果进行平均;
  • 数据增强:单样本增强如几何变换、颜色变换、增加噪声;多样本组合增强如Mixup、SamplePairing等,在特征空间内构造已知样本的邻域值样本;基于深度学习数据增强

6、特征选择

目标是从原始特征集中选择最相关、最有用的特征,以提高模型性能和泛化能力。常用特征选择方法:
1、过滤式
独立于学习算法,据特征的统计属性对特征评估和排序。包括相关系数、卡方检验、信息增益、互信息法等。过滤式方法计算快速、简单,适用于高维数据,但可能忽略特征之间的相互关系。

  • 方差选择:计算特征在数据中的方差来判断是否保留。特征方差低于预先设定的阈值,这个特征可能没有足够的变化,对分类回归任务可能没有太大贡献,可以被移除
  • 相关系数:用来衡量两个变量之间线性关系强度的指标。计算特征与目标变量之间的相互关系,选择与目标变量具有较高相关性的特征。
  • 卡方检验:适用于分类问题中的特征选择。计算特征与目标变量之间的卡方统计量,来衡量特征与目标之间的独立性。选择卡方值较大的特征,与目标变量更相关。
  • 互信息:衡量两个变量之间相关性的指标。计算特征与目标变量之间的互信息,选择与目标变量具有较高互信息的特征。

2、嵌入式(Embedding)
特征选择与学习算法的训练过程结合,特征选择作为学习算法的一部分。在学习算法中直接考虑特征的重要性,通过正则化、惩罚项或决策树剪枝等方式选择特征。嵌入式方法包括 L1正则化、决策树的特征重要性、正则化的线性模型等。嵌入式方法可以在模型训练过程中自
动选择特征,减少了特征选择的额外计算开销。
3、包裹式(Wrapper)
使用机器学习模型评估特征的重要性。在特征子集上进行交叉验证,选择性能最好的特征子集进行特征选择。基于树模型的方法(如决策树和随机森林)可以评估特征的重要性。树模型通过计算特征在树中的分裂次数和平均分裂增益衡量特征对模型的贡献。它直接使用最终学习算法对每个特征子集进行评估,可以更好地捕捉特征之间的相互作用。包裹式方法包括递归特征消或和遗传算法等。包裹式方法计算开销大,耗时长,适用于小规模数据和特定问题。

7、LR(Logistics Regression)

Logistics Regression 和 Linear Regression(线性回归)联系和区别

  • 逻辑回归的本质其实就是线性回归,但在最终预测的时候加了一层 sigmoid 函数。即:线性回归+sigmoid 函数=逻辑回归
  • 线性回归:做预测、拟合函数,用于回归任务;逻辑回归:做分类、预测函数。用于分类任务,二分类/多分类,是给定自变量和超参数后,得到因变量的期望,基于这个期望来处理预测分类问题
  • 线性回归:使用最小二乘法求得解析解、梯度下降法。逻辑回归:最大似然估计、梯度下降法。

8、特征工程

是利用数据领域的相关知识来创建能够使机器学习算法达到最佳性能的特征的过程。
简而言之,就是把一个原始数据转变为特征的过程,这些特征可以很好地描述这些数据,并且模型性能达到最优。
工作流程
在这里插入图片描述

9、树模型进行特征工程的原因

  • 改善模型性能:特征工程有助于提取更具预测性的特征,可以帮助模型更好地拟合数据,提升模型的预测性能。
  • 降低过拟合风险:合适的特征工程可以帮助模型更好地泛化到新的数据集上,降低过拟合的风险,提高模型的稳定性和泛化能力。
  • 减少计算复杂度:特征工程有助于减少特征空间的维度,从而减少计算复杂度,并加速模型的训练和预测过程。
  • 提高可解释性:通过合理的特征工程,可以使得模型更易于解释和理解,有助于深入理解数据特征对模型预测的影响。
  • 解决特征相关性和噪音问题:特征工程有助于发现和处理特征之间的相关性和噪音,使模型更加健壮。

10、AdaBoost(Adaptive Boosting)

算法流程:

  • 初始化训练数据的权值分布。如果有 N 个样本,则每一个训练样本最开始都被赋予相同的权值: 1 N \frac{1}{N} N1
  • 训练弱分类器。具体训练过程中,如果某个样本点没有被准确地分类,那么在构造下一个训练集中,也就是如果某一个数据在这次分错了,那么在下一次就会给它更大的权重。然后,权重更新过的样本集被用于训练下一个分类器,整个训练过程如此迭代地进行下去。
  • 将各个训练得到的弱分类器组合成强分类器。将各个训练得到的弱分类器组合成强分类器。各个弱分类器的训练过程结束后,加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的弱分类器的权重,使其在最终的分类函数中起着较小的决定作用。

11、GBDT(Gradient Boosting Decision Tree)

主要包括两个部分:Gradient Boosting 和 Decision Tree
1、Decision Tree:CART回归树
因为回归树的标签是连续的,因此基尼系数、熵这种概率评估不适合作为评估指标,所以考虑使用均方误差作为特征划分的好坏,将划分后每个节点所有样本的均方误差之和与之前没划分的节点的均方误差作差来代替基尼系数。
算法流程:

  • 选择最优切分特征j和切分点s
    R 1 ( j , s ) = { x ∣ x ( j ) ≤ s } R 2 ( j , s ) = { x ∣ x ( j ) > s } R_1(j,s)=\{x|x^{(j)}\leq s\} \quad R_2(j,s)=\{x|x^{(j)}> s\} R1(j,s)={xx(j)s}R2(j,s)={xx(j)>s}
    c m = 1 N m ∑ x i ∈ R m ( j , s ) y i x ∈ R m , m = 1 , 2 c_m = \frac{1}{N_m}\sum_{x_i \in R_m(j,s)}y_i \qquad x \in R_m,m=1,2 cm=Nm1xiRm(j,s)yixRm,m=1,2
    min ⁡ j , s [ min ⁡ c 1 ∑ x i ∈ R 1 ( j , s ) ( y i − c 1 ) 2 + ∑ x i ∈ R 2 ( j , s ) ( y i − c 2 ) 2 ] \min_{j,s}[\min_{c_1}\sum_{x_i \in R_1(j,s)}{(y_i-c_1)}^2+\sum_{x_i \in R_2(j,s)}{(y_i-c_2)}^2] j,smin[c1minxiR1(j,s)(yic1)2+xiR2(j,s)(yic2)2]

  • 用选定的对 ( j , s ) (j,s) (j,s)划分区域并决定相应的输出值

  • 继续对两个子区域调用步骤1、2直至满足停止条件

  • 将输入空间划分为M个区域, R 1 , R 2 , R 3 , … , R M R_1,R_2,R_3,\dots ,R_M R1,R2,R3,,RM,生成决策树

为什么不用CART分类树?

  • 无论是回归问题还是分类问题,GBST 需要将多个弱分类器的结果累加起来(Boosting的训练是串行的,一个接一个,每一棵树的训练都依赖于之前的残差)。
  • 每次迭代要拟合的是梯度值,是连续值所以要用回归树

2、Gradient Boosting:拟合负残差
基于残差的训练
每一个后续的模型都会去把前一个模型没有拟合好的残差重新拟合一下。用下一个弱分类器去拟合。当前残差(真实值-当前预测值),之后所有弱分类器的结果相加等于预测值。
为何Gradient Boosting可以用负梯度近似残差
当损失函数选用 MSE 时,负梯度<==>残差
假使用 MSE 做损失函数:
l ( y i , y i ) = 1 2 ( y i − y i ) 2 l(y_i,y^i)=\frac{1}{2}{(y_i-y^i)}^2 l(yi,yi)=21(yiyi)2
它的负梯度计算公式为:
− [ ∂ l ( y i , y i ) ∂ y i ] = ( y i , y i ) -[\frac{\partial l(y_i, y^i)}{\partial y^i}]=(y_i,y^i) [yil(yi,yi)]=(yi,yi)

12、LR和GBDT

1、用途不同

  • Logistics Regression是分类模型
  • GBDT即可作分类又可回归

2、损失函数不同

  • LR的Loss是交叉熵
  • GBDT采用回归拟合(将分类问题通过Softmax转换为回归问题)用当前损失去拟合实际值与前一轮模型预测值之间的残差

3、从正则的角度

  • LR采用L1和L2正则
  • GBDT采用弱分类器的个数,也就是迭代轮次T,T的大小影响着算法的复杂度

4、特征组合

  • LR是线性模型,具有很好的解释性,很容易并行化,但是学习能力有限,需要大量的特征工程
  • GBDT可以处理线性和非线性的数据,具有天然优势进行特征组合

13、RF和GBDT

  • 组成RF的树可以是分类树,也可以是回归树;而GBDT只由回归树组成
  • 集成学习:RF属于bagging思想;GBDT是boosting思想
  • 并行性:组成RF的树可以并行生产;而GBDT只能串行生成
  • 最终结果:对于最终的输出结果而言,RF采用多数投票等;而GBDT则是将所有结果累加起来
  • 数据敏感性:RF对异常值不敏感;GBDT对异常值非常敏感
  • 训练样本:RF每次迭代的样本是从全部训练集中有放回抽样形成的;而GBDT每次使用全部样本
  • 偏差-方差权衡:RF是通过减少模型方差提高性能;GBDT是通过减少模型偏差提高性能

14、线性模型、非线性模型

1、线性模型可以用曲线拟合样本,但是分类的决策边界一定是直线,例如LR。
2、看乘法式子中自变量x前的系数w,如果w只影响一个人,则为线性模型
例如: y = 1 1 + e w 0 + w 1 x 1 + w 2 x 2 y=\frac{1}{1+e^{w_0+w_1x_1+w_2x_2}} y=1+ew0+w1x1+w2x21为线性模型
如果自变量被两个及以上的参数影响,则为非线性
例如: y = 1 1 + w 3 ∗ e w 0 + w 1 x 1 + w 2 x 2 y=\frac{1}{1+w_3*e^{w_0+w_1x_1+w_2x_2}} y=1+w3ew0+w1x1+w2x21

15、感知机

f ( x ) = s i g n ( w ∗ x + b ) s i g n ( x ) = { 1 x >=0 1 x<0 f(x)=sign(w*x+b)\quad sign(x)=\begin{cases} 1& \text{x >=0}\\1& \text{x<0} \end{cases} f(x)=sign(wx+b)sign(x)={11x >=0x<0

感知机&LR
1、激活函数不同

  • 感知机使用阶跃函数(sign)
  • 逻辑回归使用sigmoid函数

2、输出类型不同

  • 感知机输出是离散的,通常用于二分类
  • 逻辑回归的输出是概率值,可以用于二分类或多分类

3、损失函数不同

  • 感知机通常使用误分类点到超平面的距离之和作为损失函数
  • 逻辑回归使用交叉熵损失函数

16、排序算法

在这里插入图片描述

在这里插入图片描述1、冒泡(交换)
比较相邻元素,如果第一个比第二个大,就交换它们
2、选择
在未排序序列中找到最小(大)元素,存放在排序序列的起始位置
3、插入
对于未排序数据,在已排序序列中从后向前扫描,找到相应位置并插入
4、快速(快速)

  • 在未排序元素中任取一个作为基准
  • 重新排列数据,比基准小的元素放在基准前,比基准大的元素,放在基准后
  • 递归地对两个子序列进行排序

5、希尔(插入)

  • 缩小增量排序
  • 先取一个小于n的整数d(通常为 n 2 \frac{n}{2} 2n)作为第一个增量,所有距离为d的元素放在同一个组中,先在组内直接插入排序,然后取第2个增量,重复操作8

6、归并

  • 把长度为n的输入序列分成两个长度为 n 2 \frac{n}{2} 2n的子序列
  • 对两个子序列分别进行归并排序
  • 将两个排序好的子序列合并成一个最终的排序序列

7、堆排序
将待排序序列构造成一个大顶堆,此时整个序列的最大值就是堆顶的根节点。将其与末尾元素进行交换,此时末尾就为最大值。然后将剩余n-1个元素重新构造成一个堆,这样会得到n个元素的次小值,如此反复执行,使能得到一个有序序列了。

17、常用的推荐系统算法:

1、协同过滤: 分析用户的兴趣和行为,利用共同行为习惯的群体有相似喜好的原则,推荐用户感兴趣的信息

  • 基于用户的协同过滤:根据用户的历史喜好分析出相似的人,然后给用户推荐其他人喜欢的物品。【人以类聚】
  • 基于物品的协同过滤:根据用户的历史喜好分析出相似的物品,然后给用户推荐同类物品。【物以群分】

2、基于内容过滤推荐:核心是衡量出两个物品的相似度
首先对物品或内容的特征作出描述,发现其相关性,然后基于用户以往的喜好记录,推荐给用户相似的物品

3、组合推荐

18、实现推荐系统

如果能将用户A的原始特征转变为一种代表用户A喜好的特征向量,将电影1的原始特征转变为一种代表电影1特性的特征向量,那么,我们计算两个向量的相似度,就可以代表用户A对电影1的喜欢程度。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1708793.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Golang协程和通道

文章目录 协程&#xff08;goroutine&#xff09;基本介绍GMP模型协程间共享变量 通道&#xff08;channel&#xff09;基本介绍channel的定义方式channel的读写channel的关闭channel的遍历方式只读/只写channelchannel最佳案例select语句 协程&#xff08;goroutine&#xff0…

springboot项目部署到linux服务器

springboot后端 修改前 修改后 vue前端 修改前 将地址中的 localhost改为 ip 重新生成war包 war上传到linux的tomcat的webapps下 其他环境配置和macOS大差不差 Tomcat安装使用与部署Web项目的三种方法_tomcat部署web项目-CSDN博客

回文链表(快慢指针解法之在推进过程中反转)

归纳编程学习的感悟&#xff0c; 记录奋斗路上的点滴&#xff0c; 希望能帮到一样刻苦的你&#xff01; 如有不足欢迎指正&#xff01; 共同学习交流&#xff01; &#x1f30e;欢迎各位→点赞 &#x1f44d; 收藏⭐ 留言​&#x1f4dd;抱怨深处黑暗&#xff0c;不如提灯前行…

海顺新材将携手LG化学,开启人类更美好未来的“零”碳之旅

继与东华大学成立先进低维材料中心后&#xff0c;海顺新材在可持续发展方向再响重鼓&#xff0c;与LG化学创新单一材质达成初步合作意向&#xff0c;未来&#xff0c;双方将有望在环保膜材领域展开合作。 自“双碳”目标提出以来&#xff0c;全球经济出现一项很重要的特征&…

MySQL进阶之(九)数据库的设计规范

九、数据库的设计规范 9.1 范式的概念9.1.1 范式概述9.1.2 键和相关属性 9.2 常见的范式9.2.1 第一范式9.2.2 第二范式9.2.3 第三范式9.2.4 第四范式9.2.5 第五范式&#xff08;域键范式&#xff09; 9.3 反范式化9.3.1 概述9.3.2 举例9.3.3 反范式化新问题9.3.4 通用场景 9.4 …

K210 数字识别 教程

一、烧写固件 连接k210开发板&#xff0c;点开烧录固件工具&#xff0c;选中固件&#xff0c;并下载 二、模型训练 网站&#xff1a;MaixHub 1、上传文件 2、开始标记数据 添加9个标签&#xff0c;命名为1~9&#xff0c;按键盘w开始标记&#xff0c;键盘D可以下一张图片&…

解读makefile中的.PHONY

在 Makefile 中&#xff0c;.PHONY 是一个特殊的目标&#xff0c;用于声明伪目标&#xff08;phony target&#xff09;。伪目标是指并不代表实际构建结果的目标&#xff0c;而是用来触发特定动作或命令的标识。通常情况下&#xff0c;.PHONY 会被用来声明一组需要执行的动作&a…

利用迭代方法求解线性方程组(Matlab)

一、问题描述 利用迭代方法求解线性方程组。 二、实验目的 掌握Jacobi 方法和Gauss-Seidel 方法的原理&#xff0c;能够编写代码实现两种迭代方法&#xff1b;能够利用代码分析线性方程组求解中的误差情况。 三、实验内容及要求 用代码实现&#xff1a;对下列方程中重新组织…

@ConfigurationProperties结合Nacos配置动态刷新之底层原理分析

Hello&#xff0c;我是大都督周瑜&#xff0c;本文给大家分析一下ConfigurationProperties结合Nacos配置动态刷新的底层原理&#xff0c;记得点赞、关注、分享哦&#xff01; 公众号&#xff1a;IT周瑜 应用背景 假如在Nacos中有Data ID为common.yml的配置项&#xff1a; m…

Pytorch 1.9.0环境安装

pytorch官方链接: https://pytorch.org/get-started/previous-versions/ 安装指令&#xff1a;conda install pytorch1.9.0 torchvision0.10.0 torchaudio0.9.0 cudatoolkit11.3 -c pytorch -c conda-forge 报错&#xff1a;Solving environment: unsuccessful initial attemp…

「Python Socket超能力:网络世界的隐形斗篷!」

Hi&#xff0c;我是阿佑&#xff0c;今天将带领大家揭开Python Socket编程的神秘面纱&#xff0c;赋予我们的网络应用隐形斗篷般的超能力&#xff01; 深入探讨Socket编程的革命性力量&#xff0c;教你如何用Python的Socket模块来构建强大的网络应用。从简单的HTTP服务器到复杂…

高效编写大模型 Prompt 提示词,解锁 AI 无限创意潜能

随着 ChatGPT 的出现&#xff0c;AI 成为新的焦点&#xff0c;有人说过“未来 50%的工作将是提示词工作”&#xff0c;目前很多公司也在开始招聘 Prompt 提示词工程师。Prompt&#xff08;提示词&#xff09;成为了连接创意与技术的桥梁&#xff0c;它不仅是简单的指令&#xf…

Grafana详解

目录 ​编辑 一、Grafana的主要特点 二、Grafana的基本功能 三、Grafana的使用方法 Grafana是一款开源的数据可视化工具&#xff0c;主要用于大规模指标数据的可视化展现。下面将详细介绍Grafana的特点、功能以及基本使用方法。 一、Grafana的主要特点 跨平台性&#xff…

在Ubuntu系统中使用Systemctl添加启动项的详细指南

在Ubuntu系统中使用Systemctl添加启动项的详细指南 在Ubuntu系统中&#xff0c;systemctl 是管理systemd服务的主要工具。通过它&#xff0c;你可以添加、启动、停止、重启、启用和禁用服务。 什么是Systemctl&#xff1f; systemctl 是一个用于管理systemd系统和服务管理器…

【每日刷题】Day50

【每日刷题】Day50 &#x1f955;个人主页&#xff1a;开敲&#x1f349; &#x1f525;所属专栏&#xff1a;每日刷题&#x1f34d; &#x1f33c;文章目录&#x1f33c; 1. 654. 最大二叉树 - 力扣&#xff08;LeetCode&#xff09; 2. 119. 杨辉三角 II - 力扣&#xff08…

Vue:快速上手

一、简介 Vue (发音为 /vjuː/&#xff0c;类似 view) 是一款用于构建用户界面的 JavaScript 框架。它基于标准 HTML、CSS 和 JavaScript 构建&#xff0c;并提供了一套声明式的、组件化的编程模型&#xff0c;帮助你高效地开发用户界面。无论是简单还是复杂的界面&#xff0c;…

vue3-api之provide与inject

传值&#xff1a; 父组件 > 子组件 > 孙组件 // 父组件 <template><div class"app"><h3>我是app组件(祖) --- {{ name }} {{ price }}</h3><child /></div> </template><script> import { reactive, toRefs,…

第二证券股市行情:未来钢铁行业产业格局有望稳中趋好

机构指出&#xff0c;未来钢铁职业工业格式有望稳中趋好&#xff0c;叠加当时部分公司现已处于价值低估区域&#xff0c;现阶段仍具结构性出资机遇&#xff0c;尤其是拥有较高毛利率水平的优特钢企业和本钱管控力度强、具有规模效应的龙头钢企&#xff0c;未来存在估值修复的时…

大模型主流 RAG 框架TOP10

节前&#xff0c;我们组织了一场算法岗技术&面试讨论会&#xff0c;邀请了一些互联网大厂朋友、今年参加社招和校招面试的同学。 针对大模型技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备面试攻略、面试常考点等热门话题进行了深入的讨论。 总结链接…

MySQL--复合查询

之前学过了基本的查询&#xff0c;虽然已经够80%的使用场景了&#xff0c;但是依旧需要了解剩下的20%。 一、多表笛卡尔积&#xff08;多表查询&#xff09; 以前我们使用基本查询的时候&#xff0c;from后面就跟一张表名&#xff0c;在多表查询这里&#xff0c;from后面可以跟…