线性回归模型(7大模型)

news2024/11/17 11:55:08

线性回归模型(7大模型)

线性回归是人工智能领域中最常用的统计学方法之一。在许多不同的应用领域中,线性回归都是非常有用的,例如金融、医疗、社交网络、推荐系统等等。

在机器学习中,线性回归是最基本的模型之一,也是许多其他模型的基础。在深度学习中,线性回归模型可以用作神经网络的基础,例如单层感知器模型。

线性回归模型也有许多改进和扩展版本,例如多元线性回归、逻辑回归、岭回归、lasso回归、弹性网回归等等。这些模型可以更好地处理实际应用中的不同情况,例如多个自变量、非线性关系、高维度数据等等。

本章节主要从以下四个环节进行介绍线性回归模型,主要详细介绍7大模型。

一、什么是线性回归

二、为什么使用线性回归

三、回归技术的类型

四、如何选择正确的回归模型

一、什么是线性回归

1. 线性入门

​ 先从一个简单的问题开始:如何用一个线性函数来拟合一个二维数据集?

​ 假设我们有一个二维数据集,其中每个样本都由一个x和一个y组成。我们可以用一个线性函数 y = ax + b 来拟合这个数据集,其中a和b是待定的系数。我们的目标是找到最佳的a和b,使得这个线性函数能够尽可能地拟合这个数据集。

​ 这就是线性回归的基本思想:通过拟合一个线性函数来预测一个连续型的输出变量。这是一个非常简单的案例。线性回归在实际应用中应用非常广泛,线性回归可以用于许多不同的任务,比如预测销售额、房价、股票价格等。

2. 什么是回归分析

​ 回归分析是一种统计学方法,用于研究自变量和因变量之间的关系。它是一种建立关系模型的方法,可以帮助我们预测和解释变量之间的相互作用。回归分析通常用于预测一个或多个因变量的值,这些因变量的值是由一个或多个自变量的值所决定的。回归分析的目标是建立一个数学模型来描述因变量和自变量之间的关系。这个数学模型可以是线性或非线性的,可以包含一个或多个自变量。通过回归分析,我们可以使用已知的自变量和因变量值来计算模型参数,然后使用这些参数来预测因变量值。回归分析被广泛应用于各种领域,包括经济学、社会学、医学、环境科学和工程学等。它可以用于研究许多不同的问题,如房价预测、销售预测、股票价格预测、人口增长预测等等。

回归分析是建模和分析数据的重要工具。在这里,我们使用曲线/线来拟合这些数据点,在这种方式下,从曲线或线到数据点的距离差异最小。我会在接下来的部分详细解释这一点。

二、为什么使用线性回归

举例理解

上述已经说了,回归分析估计了两个或者多个变量之间的关系,由一个简单的例子进行下一步的加深理解:

比如说,在当前的经济条件下,你要估计一家公司的销售额增长情况。现在,你有公司最新的数据,这些数据显示出销售额增长大约是经济增长的2.5倍。那么使用回归分析,我们就可以根据当前和过去的信息来预测未来公司的销售情况。

根据上述例子我们可以得到以下信息:

  1. 我们可以将销售额的增长率定义为:销售额增长率 = 公司销售额增长 / 经济增长

  2. 销售额增长大约是经济增长的2.5倍。因此,我们可以将上述式子转化为:销售额增长率 = 2.5

现在我们可以使用历史数据来拟合这个模型,然后使用该模型来预测未来的销售额增长情况。如果我们发现公司的销售额增长率偏离了预测值,我们可以重新调整模型并进行更新。

但是需要注意的是:

回归分析是一种统计学方法,它基于历史数据和一些假设来进行预测。因此,在使用回归分析进行预测时,我们需要谨慎地考虑这些假设,以及历史数据是否足够可靠和全面。

三、回归技术的类型

在统计学和机器学习领域中,回归分析有许多不同的技术和方法。以下是我归类的7种主要类型,下面来一一介绍每种回归技术。

1. ElasticNet回归

1.1 简介

ElasticNet回归是回归分析中的一种线性模型,结合了Lasso回归和岭回归的特点。与Lasso回归一样,ElasticNet回归可以实现特征选择和模型稀疏性,即通过将某些系数缩减为0,选择最相关的特征。与岭回归一样,ElasticNet回归可以处理多重共线性问题,即在输入特征之间存在高度相关性的情况下,仍然能够对模型进行合理的拟合。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ig3SW5gO-1682478439027)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426094334356.png)]

ElasticNet回归在建立模型时,同时考虑L1正则项和L2正则项,这两个正则项的系数可以通过调整超参数来控制。L1正则项可以实现特征选择和稀疏性,L2正则项可以处理多重共线性问题,通过结合这两个正则项,可以得到更加稳定、可靠的模型。

ElasticNet回归适用于许多实际应用中的问题,例如图像处理、基因表达数据分析等,这些问题通常具有高维度、高相关性等特点,而ElasticNet回归能够在这些复杂的场景中,同时实现特征选择和模型稳定性。

1.2 要点和优点

要点:

1.在高度相关变量的情况下,它会产生群体效应;

2.选择变量的数目没有限制;

3.它可以承受双重收缩。

优点:

Lasso和Ridge之间的实际的优点是,它允许ElasticNet继承循环状态下Ridge的一些稳定性。

1.3 ElasticNet回归案例

from sklearn.linear_model import ElasticNet
from sklearn.datasets import make_regression

# 生成随机数据集
X, y = make_regression(n_samples=100, n_features=10, noise=0.1, random_state=42)

# 创建ElasticNet回归模型
elastic_net = ElasticNet(alpha=0.1, l1_ratio=0.5, max_iter=1000)

# 模型拟合训练数据
elastic_net.fit(X, y)

# 输出模型参数
print("Coefficients:", elastic_net.coef_)
print("Intercept:", elastic_net.intercept_)
print("R-squared:", elastic_net.score(X, y))

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WFkdkXxh-1682478439028)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426094517723.png)]

​ 这个代码案例中,我们使用make_regression函数生成了一个包含100个样本、10个特征的随机数据集,然后创建了一个ElasticNet回归模型,并通过fit方法对模型进行训练。最后,我们输出了模型的系数、截距和R平方值。可以通过调整alphal1_ratio参数来控制L1和L2正则项的比例。

2. Lasso Regression套索回归

2.1 简介

Lasso Regression(套索回归)是一种用于回归分析的机器学习算法,它主要用于特征选择和模型正则化,可以帮助解决多重共线性和过拟合等问题。Lasso Regression通过加入L1正则化项,将一些特征的系数缩小甚至归零,从而达到特征选择的目的,同时可以避免过拟合。

它类似于岭回归,Lasso (Least Absolute Shrinkage and Selection Operator)也会惩罚回归系数的绝对值大小。此外,它能够减少变化程度并提高线性回归模型的精度。看看下面的公式:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nXHvx8aC-1682478439029)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426095538767.png)]

2.2 要点和优点

要点:

1.除常数项以外,这种回归的假设与最小二乘回归类似;

2.它收缩系数接近零(等于零),这确实有助于特征选择;

3.这是一个正则化方法,使用的是L1正则化;

如果预测的一组变量是高度相关的,Lasso 会选出其中一个变量并且将其它的收缩为零。

优点:它可以处理高维数据,并且能够自动减少不重要的特征,从而简化模型,提高预测准确性。另外,它的结果也比较容易解释,可以帮助我们理解哪些特征对目标变量的影响最大。

2.3 代码案例

from sklearn.linear_model import Lasso
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据集
boston = load_boston()

# 数据预处理
X = boston.data
y = boston.target
X = StandardScaler().fit_transform(X)

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

# 创建Lasso Regression模型并训练
lasso = Lasso(alpha=0.1)
lasso.fit(X_train, y_train)

# 输出模型得分
print("Training set score: {:.2f}".format(lasso.score(X_train, y_train)))
print("Test set score: {:.2f}".format(lasso.score(X_test, y_test)))

在这个示例中,我们使用了Boston房价数据集进行回归分析,首先对数据进行预处理,然后划分训练集和测试集。接着,我们使用Lasso Regression创建了一个模型,并设置了alpha参数为0.1,这个参数控制着正则化的强度。最后,我们输出了模型在训练集和测试集上的得分,来评估模型的性能。

3. Ridge Regression岭回归

3.1 简介

Ridge Regression(岭回归)是一种用于回归分析的机器学习算法,它可以帮助解决多重共线性和过拟合等问题。Ridge Regression通过加入L2正则化项,限制了特征系数的平方和,从而使得模型更加稳定。

岭回归分析是一种用于存在多重共线性(自变量高度相关)数据的技术。在多重共线性情况下,尽管最小二乘法(OLS)对每个变量很公平,但它们的差异很大,使得观测值偏移并远离真实值。岭回归通过给回归估计上增加一个偏差度,来降低标准误差。

y=a+b*x这个方程也有一个误差项。完整的方程是:


y=a+b*x+e (error term),  [error term is the value needed to correct for a prediction error between the observed and predicted value]
=> y=a+y= a+ b1x1+ b2x2+....+e, for multiple independent variables.

在一个线性方程中,预测误差可以分解为2个子分量。一个是偏差,一个是方差。预测错误可能会由这两个分量或者这两个中的任何一个造成。在这里,我们将讨论由方差所造成的有关误差。

岭回归通过收缩参数λ(lambda)解决多重共线性问题。看下面的公式

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-PJwl2F1y-1682478598783)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426104904970.png)]

3.2 要点和优点

要点:

1.除常数项以外,这种回归的假设与最小二乘回归类似;

2.它收缩了相关系数的值,但没有达到零,这表明它没有特征选择功能

3.这是一个正则化方法,并且使用的是L2正则化。

优点:

Ridge Regression的优点在于它可以处理高维数据,并且能够有效地减少不必要的特征,从而简化模型,提高预测准确性。另外,它的结果也比较容易解释,可以帮助我们理解哪些特征对目标变量的影响最大。

3.3 代码案例

from sklearn.linear_model import Ridge
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 加载数据集
boston = load_boston()

# 数据预处理
X = boston.data
y = boston.target
X = StandardScaler().fit_transform(X)

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=0)

# 创建Ridge Regression模型并训练
ridge = Ridge(alpha=0.1)
ridge.fit(X_train, y_train)

# 输出模型得分
print("Training set score: {:.2f}".format(ridge.score(X_train, y_train)))
print("Test set score: {:.2f}".format(ridge.score(X_test, y_test)))

4. Stepwise Regression逐步回归

4.1 简介

Stepwise Regression(逐步回归)是一种基于特征选择的回归分析方法,它可以在给定的一组特征中选择出最佳的子集,并利用这个子集来建立回归模型。Stepwise Regression可以通过逐步添加和删除变量,逐步优化模型,从而得到更加准确和有效的结果。

Stepwise Regression通常分为前向和后向两种方法,前向方法从空模型开始,逐步添加特征,而后向方法则从包含所有特征的完整模型开始,逐步删除特征。在每一步中,模型的性能都会被评估,并且选择具有最佳性能的特征进行添加或删除。

下面列出了一些最常用的逐步回归方法:

  • 标准逐步回归法做两件事情。即增加和删除每个步骤所需的预测。
  • 向前选择法从模型中最显著的预测开始,然后为每一步添加变量。
  • 向后剔除法与模型的所有预测同时开始,然后在每一步消除最小显着性的变量。

这种建模技术的目的是使用最少的预测变量数来最大化预测能力。这也是处理高维数据集的方法之一。

4.2 代码案例

from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LinearRegression
from mlxtend.feature_selection import SequentialFeatureSelector as SFS

# 加载数据集
boston = load_boston()

# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(boston.data, boston.target, test_size=0.3, random_state=0)

# 创建线性回归模型
linreg = LinearRegression()

# 创建前向Stepwise Regression模型并训练
sfs_forward = SFS(linreg,
                  k_features=5,
                  forward=True,
                  scoring='neg_mean_squared_error',
                  cv=5)
sfs_forward.fit(X_train, y_train)

# 输出最佳特征组合
print('Best feature subset:', sfs_forward.k_feature_idx_)

在这个示例中,我们使用了Boston房价数据集进行回归分析,首先划分训练集和测试集,然后创建了一个线性回归模型。接着,我们使用了mlxtend库中的SequentialFeatureSelector类来实现前向Stepwise Regression,并设置了k_features参数为5,表示最终选择5个特征。最后,我们输出了最佳特征组合的索引,可以用于重新训练模型或进行特征重要性分析。

5. Polynomial Regression多项式回归

5.1 基本介绍

Polynomial Regression(多项式回归)是一种基于线性回归的扩展方法,它可以建立非线性关系的回归模型。与线性回归不同的是,多项式回归可以通过添加多项式项(例如平方项、立方项等)来拟合非线性数据。

在多项式回归中,输入特征不仅可以是原始特征,还可以是这些特征的多项式项。例如,在一元多项式回归中,我们可以使用以下模型:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-9yLAWGDL-1682478439031)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105602619.png)]

在这种回归技术中,最佳拟合线不是直线。而是一个用于拟合数据点的曲线。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2616hNMi-1682478439034)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105631242.png)]

5.2 重点

重点:

虽然会有一个诱导可以拟合一个高次多项式并得到较低的错误,但这可能会导致过拟合。你需要经常画出关系图来查看拟合情况,并且专注于保证拟合合理,既没有过拟合又没有欠拟合。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Wk73Cf7k-1682478439035)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426105715671.png)]

6. Logistic Regression逻辑回归

6.1 简介

逻辑回归(Logistic Regression)是一种分类算法,用于预测二元变量的结果。它通过将数据拟合到S形的逻辑函数(也称为sigmoid函数)来进行分类。逻辑回归是一种广泛应用于机器学习和数据分析的算法,通常用于二元分类问题,如信用评分、客户离职预测、疾病诊断等。它可以将输入特征与目标变量之间的关系建模为概率,并根据阈值将数据分类为两个类别。

逻辑回归是用来计算“事件=Success”和“事件=Failure”的概率。当因变量的类型属于二元(1 / 0,真/假,是/否)变量时,我们就应该使用逻辑回归。这里,Y的值从0到1,它可以用下方程表示。


odds= p/ (1-p) = probability of event occurrence / probability of not event occurrenceln(odds) = ln(p/(1-p))logit(p) = ln(p/(1-p)) = b0+b1X1+b2X2+b3X3....+bkXk
p表述具有某个特征的概率

6.2 要点

要点:

1.它广泛的用于分类问题。

2.逻辑回归不要求自变量和因变量是线性关系。它可以处理各种类型的关系,因为它对预测的相对风险指数OR使用了一个非线性的log转换。

3.为了避免过拟合和欠拟合,我们应该包括所有重要的变量。有一个很好的方法来确保这种情况,就是使用逐步筛选方法来估计逻辑回归。

4.它需要大的样本量,因为在样本数量较少的情况下,极大似然估计的效果比普通的最小二乘法差。

5.自变量不应该相互关联的,即不具有多重共线性。然而,在分析和建模中,我们可以选择包含分类变量相互作用的影响。

6.如果因变量的值是定序变量,则称它为序逻辑回归。

7.如果因变量是多类的话,则称它为多元逻辑回归。

代码案例

from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_classification

# 生成示例数据集
X, y = make_classification(n_samples=1000, n_features=4, n_informative=2, n_redundant=0, random_state=42)

# 将数据集拆分为训练和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建逻辑回归模型
model = LogisticRegression()

# 在训练集上训练模型
model.fit(X_train, y_train)

# 在测试集上测试模型
accuracy = model.score(X_test, y_test)
print("Accuracy:", accuracy)

在这个代码示例中,我们首先使用Scikit-Learn的make_classification函数生成了一个示例数据集。然后,我们将数据集拆分为训练集和测试集,并创建了一个逻辑回归模型。最后,我们在训练集上训练模型,并在测试集上测试模型的准确率。

7. Linear Regression线性回归

7.1简介

线性回归(Linear Regression)是一种基本的统计学习方法,通常用于建立两个或多个变量之间的线性关系。它是通过将自变量与因变量之间的关系建模为线性方程,然后根据数据拟合出这个线性方程的系数,从而进行预测和分析的一种方法。线性回归广泛应用于金融、医疗、自然资源等多个领域,可以用于预测商品价格、销售量、股票价格等。

具体来说,线性回归通过找到一个最佳的拟合线来描述两个变量之间的关系。这个拟合线可以表示为一条直线的方程,即y = mx + b。其中,y是因变量,x是自变量,m是斜率,b是截距。斜率代表了因变量y在自变量x上的变化率,截距代表了当自变量为0时因变量的值。

线性回归的目标是通过最小化实际值和预测值之间的误差来找到最佳的拟合线。这个误差可以使用最小二乘法来计算。

用一个方程式来表示它,即Y=a+b*X+e,其中a表示截距,b表示直线的斜率,e是误差项。这个方程可以根据给定的预测变量(s)来预测目标变量的值。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aSp3itA9-1682478439036)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426110255631.png)]

7.2 如何获得最佳拟合线(a和b的值)?

这个问题可以使用最小二乘法轻松地完成。最小二乘法也是用于拟合回归线最常用的方法。对于观测数据,它通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。因为在相加时,偏差先平方,所以正值和负值没有抵消。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-cMiDw1pt-1682478439037)(/Users/kayleigh/Library/Application Support/typora-user-images/image-20230426110328635.png)]

我们可以使用R-square指标来评估模型性能。想了解这些指标的详细信息,可以阅读:模型性能指标Part 1,Part 2.

7.3 要点

要点:

1.自变量与因变量之间必须有线性关系

2.多元回归存在多重共线性,自相关性和异方差性。

3.线性回归对异常值非常敏感。它会严重影响回归线,最终影响预测值。

4.多重共线性会增加系数估计值的方差,使得在模型轻微变化下,估计非常敏感。结果就是系数估计值不稳定

5.在多个自变量的情况下,我们可以使用向前选择法,向后剔除法和逐步筛选法来选择最重要的自变量。

7.4 代码案例

from sklearn.linear_model import LinearRegression
from sklearn.model_selection import train_test_split
from sklearn.datasets import make_regression

# 生成示例数据集
X, y = make_regression(n_samples=1000, n_features=4, noise=0.1, random_state=42)

# 将数据集拆分为训练和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 创建线性回归模型
model = LinearRegression()

# 在训练集上训练模型
model.fit(X_train, y_train)

# 在测试集上测试模型
score = model.score(X_test, y_test)
print("Score:", score)

在这个代码示例中,我们首先使用Scikit-Learn的make_regression函数生成了一个示例数据集。然后,我们将数据集拆分为训练集和测试集,并创建了一个线性回归模型。最后,我们在训练集上训练模型,并在测试集上测试模型的准确率。

四、如何正确选择回归模型?

在多类回归模型中,基于自变量和因变量的类型,数据的维数以及数据的其它基本特征的情况下,选择最合适的技术非常重要。以下是你要选择正确的回归模型的关键因素

  1. 数据探索是构建预测模型的必然组成部分。在选择合适的模型时,比如识别变量的关系和影响时,它应该首选的一步。

  2. 比较适合于不同模型的优点,我们可以分析不同的指标参数,如统计意义的参数,R-square,Adjusted R-square,AIC,BIC以及误差项,另一个是Mallows’ Cp准则。这个主要是通过将模型与所有可能的子模型进行对比(或谨慎选择他们),检查在你的模型中可能出现的偏差。

  3. 交叉验证是评估预测模型最好额方法。在这里,将你的数据集分成两份(一份做训练和一份做验证)。使用观测值和预测值之间的一个简单均方差来衡量你的预测精度。

  4. 如果你的数据集是多个混合变量,那么你就不应该选择自动模型选择方法,因为你应该不想在同一时间把所有变量放在同一个模型中。

  5. 它也将取决于你的目的。可能会出现这样的情况,一个不太强大的模型与具有高度统计学意义的模型相比,更易于实现。

  6. 回归正则化方法(Lasso,Ridge和ElasticNet)在高维和数据集变量之间多重共线性情况下运行良好。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/463644.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

Cortex-A7中断详解(一)

STM32中断系统回顾 中断向量表NVIC(内嵌向量中断控制器)中断使能中断服务函数 中断向量表 中断向量表是一个表,表里面存放的是中断向量。 中断服务程序的入口地址或存放中断服务程序的首地址成为中断向量,因此中断向量表是一系…

电脑开机memory management错误蓝屏了怎么办?

电脑开机memory management错误蓝屏了怎么办?windows系统出现不兼容问题之后,很容易出现电脑蓝屏的情况。最近有用户遇到了上述的蓝屏错误情况,不知道怎么去进行解决。今天我们就一起来看看以下的解决方法分享吧。 准备工作: 1、U…

yolov5半自动打标签(opencv版本),识别目标画框并将坐标信息保存在xml中

文章目录 1.yolov5预训练模型推理2. opencv边缘检测结果展示 yolov5训练数据集时,需要对数据进行打标签,可以通过两种方法进行半自动化打标签。 1.yolov5预训练模型推理 yolov5预训练模型:将待打标签的图片输入预训练模型中进行推理&#xf…

实现PXE批量网络装机及kickstrat无人值守安装(富士山终究留不住欲落的樱花)

一、PXE概述和部署PXE批量装机 1.PXE简介 PXE(预启动执行环境,在操作系统之前运行)是由Intel公司开发的网络引导技术,c/s架构,允许客户机通过网络从远程服务器下载引导镜像,并加载安装文件或者整个操作系统…

2023_8.0.33版windows版MySql安装_配置远程连接_修改设置初始密码---MySql工作笔记0001

MySQL :: Download MySQL Community Server https://dev.mysql.com/downloads/mysql/ 首先去下载mysql 可以看到这里下载第一个就可以了,最新版的8.0.33 这里点击仅仅下载 just start my download 然后解压到一个文件夹,然后配置一下环境变量 然后新建一个my.ini文件 然后把…

ubuntu22.04下挂载第二块硬盘

文章目录 一、查看硬盘情况二、找到nvme1n1三、挂载四、修改分区文件 一、查看硬盘情况 首先要查看一下系统识别出来的设备。也就是说,我希望知道,ubuntu到底发现了几块硬盘。用命令:lsblk 显示结果如下: 有两块硬盘&#xff1a…

Win11打开移动热点后电脑无法上网怎么办?

Win11打开移动热点后电脑无法上网怎么办?有用户将自己的电脑开启移动热点来使用的时候,发现自己的电脑出现了无法上网的情况。那么为什么开启热点之后,就会无法进行上网呢?来看看以下的解决方法分享吧。 Win11打开移动热点无法上网…

virtual kubelet 简单使用例子

virtual kubelet 简单使用例子 实现过程制作virtual kubelet节点证书下载virtual kubelet代码并编译virtual kubelet virtual kubelet 顾名思义就是虚拟的kubelet节点 效果如下: 实现过程 制作virtual kubelet节点证书 openssl genrsa -out client.key 2048 opens…

EPICS aSub记录使用实例

本实例描述了在数据库中如何使用aSub记录 本实验中使用了三个k型热电偶,一个3路k型热电偶变送器以及一个串口服务器: 温度变送器参数: 串口服务器: 1) 用makeBaseApp.pl构建IOC应用程序的目录结构: [blctrllocalhost…

OpenGL入门教程之 摄像机

引言 前面的教程中我们讨论了观察矩阵以及如何使用观察矩阵移动场景。OpenGL本身没有摄像机的概念,但我们可以通过把场景中的所有物体往相反方向移动的方式来模拟出摄像机,这样感觉就像我们在移动,而不是场景在移动。  本节我们将会讨论如何…

从零开始学架构——高可用存储架构

双机架构 存储高可用方案的本质都是通过将数据复制到多个存储设备,通过数据冗余的方式来实现高可用,其复杂性主要体现在如何应对复制延迟和中断导致的数据不一致问题。因此,对任何一个高可用存储方案,我们需要从以下几个方面去进…

【MySQL】一个脚本启动MySQL 8.0并初始化数据库

引 很多情况下需要在客户端发布时发布 MySQL 数据库,这种发布方式虽然存在文件资源较大、易出错等缺点,但是却可以让桌面产品的发布更加完整。 本文将阐述如何使用一个脚本启动并初始化 MySQL 8.0 的方法,涵盖数据库下载、脚本源码、测试及…

PFSK162 3BSE015088R1通常都要做空载全电压合闸冲击试验

​ PFSK162 3BSE015088R1通常都要做空载全电压合闸冲击试验 变压器励磁涌流影响的保护整定 摘要:在大型变压器空栽冲击过程中,由于励磁涌流和负序电压的存在,如果定值整定不得当,会导致差动保护,复压过流保护等误动作&…

设计模式——组件协作模式之观察者模式

文章目录 前言一、“组件协作” 模式二、Observer 观察者模式1、动机2、模式定义3、伪代码示例①、第一种方案,最朴素的方式②、第二种方案,重构使得遵循DIP原则:③、进一步的小优化:④、修改使得支持多个观察者: 4、结…

028:Mapbox GL 绘制线段,实时测量长度距离值

第028个 点击查看专栏目录 本示例的目的是介绍演示如何在vue+mapbox中添加draw组件,绘制线段,编辑线段,实时显示长度值。这里使用turf来计算长度值,采用默认的单位千米。 直接复制下面的 vue+mapbox源代码,操作2分钟即可运行实现效果 文章目录 示例效果配置方式示例源代…

Elasticsearch:Standard Text Analyzer - 标准文本分析器

Elasticsearch 提供了超过很多开箱即用的分析器,我们可以在文本分析阶段使用它们。 这些分析器很可能足以满足基本情况,但如果需要创建自定义分析器,可以通过使用构成该模块的所需组件实例化一个新的分析器模块来实现。 下表列出了 Elasticse…

SuSE linux server 11通过SAP来安装oracle11g

这里安装通过xmanager4进行安装,之前文章已经说了怎么通过xmanager4来连接linux系统,这里说一下安装oracle11g。 我这里是通过sap来安装oracle11g,所以需要 export LD_LIBRARY_PATH/oracle/P90/112_64/lib/:/sapmnt/P90/exe/ 同时在orap90用…

Mac使用命令行工具解压和压缩rar文件

目前在Mac电脑里支持解压缩的格式主要有:zip、gz等,但是还不支持rar格式的文件,接下来带着大家学习一下如何解压缩rar格式文件。 1.下载rar工具 打开:https://www.rarlab.com/download.htm 根据自己电脑的芯片要求选择自己的安装…

马云的创业故事及他人生中的摆渡人-卖掉中国黄页去北漂(四)

马云上京,是在外经贸部一位名叫王建国的朋友牵线之下,受邀担任外经贸部下属的中国国际电子商务中心(下面简称EDI)总经理,负责搭建外经贸部官网和网上中国商品交易市场。 马云团队在潘家园租了房子,白天上班…

如何编写高质量代码、提高编程效率?

一、 前言 高质量代码是指在满足功能需求的基础上,具备高性能、安全、可扩展、易维护、可测试等特点的代码。它不仅可以提高开发效率和代码质量,更能有效减少代码维护成本,促进团队协作和项目成功。因此,编写高质量代码对程序员来…