【机器学习】线性回归的概念以及如何从最小二乘法推导到正规方程和实际线性回归实例(含python代码)

news2024/9/22 5:32:41

引言

线性回归是一种广泛应用于统计分析、经济预测、机器学习等领域的建模方法。它旨在通过自变量(解释变量)来预测因变量(响应变量)的值

文章目录

  • 引言
  • 一、线性回归的概念
    • 1.1 线性回归的基本概念
    • 1.2 最小二乘法
      • 1.2.1 最小二乘法的数学表达式
      • 1.2.2 正规方程
      • 1.2.3 最小二乘法如何推导正规方程
    • 1.3 线性回归的类型
      • 1.3.1 简单线性回归
      • 1.3.2 多元线性回归
    • 1.4 线性回归的假设
    • 1.5 线性回归的估计和推断
      • 1.5.1 参数估计
      • 1.5.2 置信区间和假设检验
    • 1.6 线性回归的局限性
    • 1.7 线性回归的改进
    • 1.8 实际应用案例
      • 薪资预测
    • 1.9 模型评估和诊断
      • 1.9.1模型评估
      • 1.9.2 模型诊断
    • 1.10 结论

在这里插入图片描述

一、线性回归的概念

1.1 线性回归的基本概念

线性回归模型基于一个简单的假设:因变量与自变量之间存在线性关系。这种关系可以用一条直线来描述,即通过自变量的线性组合来预测因变量的值。线性回归模型的一般形式如下:
Y = β 0 + β 1 X 1 + β 2 X 2 + . . . + β n X n + ϵ Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_nX_n + \epsilon Y=β0+β1X1+β2X2+...+βnXn+ϵ

  • Y Y Y是因变量
  • X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X1,X2,...,Xn是自变量
  • β 0 \beta_0 β0是截距项
  • β 1 , β 2 , . . . , β n \beta_1, \beta_2, ..., \beta_n β1,β2,...,βn是斜率系数
  • ϵ \epsilon ϵ是误差项,表示模型未能解释的随机变异

1.2 最小二乘法

最小二乘法是求解线性回归模型参数的一种常用方法

它的目标是找到一组参数,使得模型预测值与实际观测值之间的残差平方和最小。残差是实际观测值与模型预测值之间的差异,记为 ϵ i = y i − y ^ i \epsilon_i = y_i - \hat{y}_i ϵi=yiy^i,其中 y i y_i yi是实际观测值, y ^ i \hat{y}_i y^i是模型预测值

1.2.1 最小二乘法的数学表达式

S = ∑ i = 1 n ϵ i 2 = ∑ i = 1 n ( y i − y ^ i ) 2 S = \sum_{i=1}^{n} \epsilon_i^2 = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 S=i=1nϵi2=i=1n(yiy^i)2

1.2.2 正规方程

为了找到最小化 S S S β \beta β值,我们需要对每个 β \beta β求偏导,并令其等于零。这样我们可以得到正规方程:
β = ( X T X ) − 1 X T Y \beta = (X^TX)^{-1}X^TY β=(XTX)1XTY

  • X X X是设计矩阵,包含了所有自变量的值

1.2.3 最小二乘法如何推导正规方程

正规方程是线性回归中用于求解回归系数的一种方法

假设我们有以下线性回归模型:
Y = β 0 + β 1 X 1 + β 2 X 2 + . . . + β n X n + ϵ Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_nX_n + \epsilon Y=β0+β1X1+β2X2+...+βnXn+ϵ

  • Y Y Y是因变量
  • X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X1,X2,...,Xn是自变量
  • β 0 , β 1 , . . . , β n \beta_0, \beta_1, ..., \beta_n β0,β1,...,βn是回归系数
  • ϵ \epsilon ϵ是误差项
    为了求解 ( \beta ) 的最佳估计值,我们使用最小二乘法,目的是最小化残差平方和 S S S
    S = ∑ i = 1 n ϵ i 2 = ∑ i = 1 n ( y i − y ^ i ) 2 S = \sum_{i=1}^{n} \epsilon_i^2 = \sum_{i=1}^{n} (y_i - \hat{y}_i)^2 S=i=1nϵi2=i=1n(yiy^i)2
  • ϵ i = y i − y ^ i \epsilon_i = y_i - \hat{y}_i ϵi=yiy^i
  • y ^ i \hat{y}_i y^i是模型对第 i i i个观测的预测值
    我们可以将 S S S表达为:
    S = ∑ i = 1 n ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) 2 S = \sum_{i=1}^{n} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in}))^2 S=i=1n(yi(β0+β1xi1+β2xi2+...+βnxin))2
    为了找到最小化 S S S β \beta β值,我们需要对 S S S分别对 β 0 , β 1 , . . . , β n \beta_0, \beta_1, ..., \beta_n β0,β1,...,βn求偏导,并令这些偏导数等于零
    β j \beta_j βj求偏导,得到:
    ∂ S ∂ β j = − 2 ∑ i = 1 n x i j ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) \frac{\partial S}{\partial \beta_j} = -2 \sum_{i=1}^{n} x_{ij} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in})) βjS=2i=1nxij(yi(β0+β1xi1+β2xi2+...+βnxin))
    将上式等于零,得到:
    ∑ i = 1 n x i j ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) = 0 \sum_{i=1}^{n} x_{ij} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in})) = 0 i=1nxij(yi(β0+β1xi1+β2xi2+...+βnxin))=0
    对于 j = 0 , 1 , . . . , n j = 0, 1, ..., n j=0,1,...,n,我们得到以下方程组:
    ∑ i = 1 n ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) = 0 ∑ i = 1 n x i 1 ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) = 0 . . . ∑ i = 1 n x i n ( y i − ( β 0 + β 1 x i 1 + β 2 x i 2 + . . . + β n x i n ) ) = 0 \begin{align*} \sum_{i=1}^{n} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in})) &= 0 \\ \sum_{i=1}^{n} x_{i1} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in})) &= 0 \\ ... \\ \sum_{i=1}^{n} x_{in} (y_i - (\beta_0 + \beta_1x_{i1} + \beta_2x_{i2} + ... + \beta_nx_{in})) &= 0 \\ \end{align*} i=1n(yi(β0+β1xi1+β2xi2+...+βnxin))i=1nxi1(yi(β0+β1xi1+β2xi2+...+βnxin))...i=1nxin(yi(β0+β1xi1+β2xi2+...+βnxin))=0=0=0
    我们可以将这些方程重写为矩阵形式:
    ∑ i = 1 n y i = n β 0 + β 1 ∑ i = 1 n x i 1 + . . . + β n ∑ i = 1 n x i n ∑ i = 1 n x i 1 y i = β 0 ∑ i = 1 n x i 1 + β 1 ∑ i = 1 n x i 1 2 + . . . + β n ∑ i = 1 n x i 1 x i n . . . ∑ i = 1 n x i n y i = β 0 ∑ i = 1 n x i n + β 1 ∑ i = 1 n x i 1 x i n + . . . + β n ∑ i = 1 n x i n 2 \begin{align*} \sum_{i=1}^{n} y_i &= n\beta_0 + \beta_1\sum_{i=1}^{n} x_{i1} + ... + \beta_n\sum_{i=1}^{n} x_{in} \\ \sum_{i=1}^{n} x_{i1}y_i &= \beta_0\sum_{i=1}^{n} x_{i1} + \beta_1\sum_{i=1}^{n} x_{i1}^2 + ... + \beta_n\sum_{i=1}^{n} x_{i1}x_{in} \\ ... \\ \sum_{i=1}^{n} x_{in}y_i &= \beta_0\sum_{i=1}^{n} x_{in} + \beta_1\sum_{i=1}^{n} x_{i1}x_{in} + ... + \beta_n\sum_{i=1}^{n} x_{in}^2 \\ \end{align*} i=1nyii=1nxi1yi...i=1nxinyi=nβ0+β1i=1nxi1+...+βni=1nxin=β0i=1nxi1+β1i=1nxi12+...+βni=1nxi1xin=β0i=1nxin+β1i=1nxi1xin+...+βni=1nxin2

将这些方程表示为矩阵形式 X T X Y = X T Y X^TXY = X^TY XTXY=XTY,其中 X X X是设计矩阵,包含所有自变量 X 1 , X 2 , . . . , X n X_1, X_2, ..., X_n X1,X2,...,Xn的值(包括一个全为1的列来表示截距项)

我们将上述方程组转换为矩阵形式。首先,定义以下矩阵和向量:

  • X X X是一个 n × ( k + 1 ) n \times (k+1) n×(k+1)的设计矩阵,其中 n n n是样本数量, k k k是自变量的数量(不包括截距项)。设计矩阵的第一列是全1的列,用于表示截距项 β 0 \beta_0 β0,其余列对应于自变量 X 1 , X 2 , . . . , X k X_1, X_2, ..., X_k X1,X2,...,Xk
  • Y Y Y是一个 n × 1 n \times 1 n×1的向量,包含因变量的观测值
  • β \beta β是一个 ( k + 1 ) × 1 (k+1) \times 1 (k+1)×1的向量,包含回归系数 β 0 , β 1 , . . . , β k \beta_0, \beta_1, ..., \beta_k β0,β1,...,βk
  • ϵ \epsilon ϵ是一个 n × 1 n \times 1 n×1的向量,包含误差项
    设计矩阵 X X X和向量 Y Y Y可以表示为:
    X = [ 1 x 11 x 12 ⋯ x 1 k 1 x 21 x 22 ⋯ x 2 k ⋮ ⋮ ⋮ ⋱ ⋮ 1 x n 1 x n 2 ⋯ x n k ] , Y = [ y 1 y 2 ⋮ y n ] X = \begin{bmatrix} 1 & x_{11} & x_{12} & \cdots & x_{1k} \\ 1 & x_{21} & x_{22} & \cdots & x_{2k} \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & x_{n1} & x_{n2} & \cdots & x_{nk} \end{bmatrix}, \quad Y = \begin{bmatrix} y_1 \\ y_2 \\ \vdots \\ y_n \end{bmatrix} X= 111x11x21xn1x12x22xn2x1kx2kxnk ,Y= y1y2yn
    现在,我们可以将残差平方和 S S S表示为:
    S = ( Y − X β ) T ( Y − X β ) S = (Y - X\beta)^T(Y - X\beta) S=(Y)T(Y)
    为了最小化 S S S,我们对 β \beta β求导并令其等于零:
    ∂ S ∂ β = − 2 X T ( Y − X β ) = 0 \frac{\partial S}{\partial \beta} = -2X^T(Y - X\beta) = 0 βS=2XT(Y)=0
    解这个方程,我们得到正规方程:
    X T X β = X T Y X^TX\beta = X^TY XT=XTY
    这是一个 ( k + 1 ) × 1 (k+1) \times 1 (k+1)×1的方程组,我们可以解出 β \beta β
    β = ( X T X ) − 1 X T Y \beta = (X^TX)^{-1}X^TY β=(XTX)1XTY
    这里, ( X T X ) − 1 (X^TX)^{-1} (XTX)1 X T X X^TX XTX的逆矩阵,如果 X T X X^TX XTX是可逆的。这个方程给出了回归系数 β \beta β 的最佳线性无偏估计(BLUE)

总结:正规方程的推导过程包括以下几个步骤

  1. 建立线性回归模型
  2. 定义残差平方和 S S S
  3. S S S关于回归系数 β \beta β求偏导
  4. 将得到的偏导数等于零,形成方程组
  5. 将方程组转换为矩阵形式 X T X β = X T Y X^TX\beta = X^TY XT=XTY
  6. 解矩阵方程得到 β \beta β的估计值

在实际应用中,当设计矩阵 X X X的列是线性独立的,即 X T X X^TX XTX是可逆的,正规方程提供了一个直接的方法来计算回归系数
如果 X T X X^TX XTX不可逆,可能需要使用其他方法,如岭回归或主成分回归

1.3 线性回归的类型

1.3.1 简单线性回归

简单线性回归是只有一个自变量的线性回归模型。它的形式为:
Y = β 0 + β 1 X + ϵ Y = \beta_0 + \beta_1X + \epsilon Y=β0+β1X+ϵ
简单线性回归易于理解和实现,但它的应用范围有限,因为它只能处理单一自变量的问题

1.3.2 多元线性回归

多元线性回归包含多个自变量,其形式为:
Y = β 0 + β 1 X 1 + β 2 X 2 + . . . + β n X n + ϵ Y = \beta_0 + \beta_1X_1 + \beta_2X_2 + ... + \beta_nX_n + \epsilon Y=β0+β1X1+β2X2+...+βnXn+ϵ
多元线性回归在实际应用中更为常见,因为它能够处理更复杂的问题

1.4 线性回归的假设

线性回归的分析和解释依赖于以下假设:

  1. 线性关系:自变量与因变量之间存在线性关系
  2. 独立性:自变量之间相互独立,不存在多重共线性
  3. 同方差性:所有观测值的误差都有相同的方差
  4. 正态分布:误差项服从正态分布,均值为零

如果这些假设不成立,线性回归模型的预测能力可能会受到影响

1.5 线性回归的估计和推断

1.5.1 参数估计

线性回归模型的参数估计通常使用最小二乘法。然而,当数据违反某些假设时,可能需要使用其他方法,如加权最小二乘法或岭回归

1.5.2 置信区间和假设检验

在得到参数的估计值后,我们通常希望对它们进行推断。这包括计算参数的置信区间和进行假设检验。置信区间给出了参数估计值的可能范围,而假设检验则用于判断参数是否显著不为零

1.6 线性回归的局限性

线性回归虽然强大,但它也有局限性:

  • 它假设自变量与因变量之间存在线性关系,这在现实中不一定成立
  • 它对异常值敏感,异常值可能会对模型产生较大影响
  • 当自变量之间存在多重共线性时,模型的稳定性会受到影响

1.7 线性回归的改进

为了克服线性回归的局限性,有多种改进方法:

  • 岭回归和Lasso回归:用于处理多重共线性问题
  • 非线性回归:用于处理自变量与因变量之间的非线性关系
  • 稳健回归方法:如最小绝对偏差回归,对异常值不敏感

1.8 实际应用案例

薪资预测

假设我们想要预测一个人的薪资(因变量),我们可能考虑以下自变量:工作经验、教育水平、职位级别和所在城市的生活成本

以下是如何使用Python和scikit-learn库来构建薪资预测模型的步骤:

# 假设我们有一个名为salary_data.csv的数据文件,包含以下列:
# 'Experience' (年), 'Education' (教育水平, 量化为数值), 'Position' (职位级别, 量化为数值), 'Cost_of_Living' (生活成本指数), 'Salary' (薪资)
# 加载数据
df = pd.read_csv('salary_data.csv')
# 特征和目标变量
X = df[['Experience', 'Education', 'Position', 'Cost_of_Living']]
y = df['Salary']
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建线性回归模型
model = LinearRegression()
# 训练模型
model.fit(X_train, y_train)
# 预测测试集
y_pred = model.predict(X_test)
# 评估模型
from sklearn.metrics import mean_squared_error, r2_score
mse = mean_squared_error(y_test, y_pred)
r2 = r2_score(y_test, y_pred)
print(f"Mean Squared Error (MSE): {mse}")
print(f"R-squared (R2): {r2}")
# 输出系数和截距
print(f"Coefficients: {model.coef_}")
print(f"Intercept: {model.intercept_}")
# 使用模型进行预测
# 假设我们有一个新的数据点
new_data = pd.DataFrame({
    'Experience': [5],
    'Education': [4],
    'Position': [3],
    'Cost_of_Living': [150]
})
predicted_salary = model.predict(new_data)
print(f"Predicted Salary: {predicted_salary[0]}")
  • 首先加载了包含薪资数据的CSV文件
  • 然后定义了特征变量和目标变量
  • 将数据集划分为训练集和测试集
  • 创建了一个线性回归模型,并用训练集数据来训练它
  • 使用测试集数据来评估模型的性能
  • 打印出模型的系数和截距
  • 使用训练好的模型来预测一个新数据点的薪资

1.9 模型评估和诊断

在构建了线性回归模型之后,我们需要对其进行评估和诊断,以确保其可靠性和预测能力

1.9.1模型评估

  • 均方误差(MSE)和均方根误差(RMSE)是常用的评估指标,它们衡量了模型预测值与实际值之间的差异
  • R-squared(R2)指标表示模型解释的变异性的比例,其值越接近1,模型的解释能力越强

1.9.2 模型诊断

  • 残差分析:通过残差(实际值与预测值之差)来检查模型的假设是否得到满足
  • 正态Q-Q图:检查残差是否服从正态分布
  • 杠杆值和影响点:识别对模型有较大影响的观测值

1.10 结论

线性回归是一个强大的统计工具,用于预测和分析变量之间的关系。尽管它有局限性,但通过适当的改进和诊断,它可以成为解决实际问题的有效工具。在实际应用中,理解线性回归的假设、评估模型性能以及进行模型诊断是至关重要的步骤

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2075042.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

来了!!!来了!!!--我需要在Docker中运行Java应用程序,但是没有Docker经验,你能给我一个简单的入门指南吗?

在Docker中运行Java应用程序的简单入门指南: 1.安装Docker 首先,确保你的系统上安装了Docker。你可以从Docker官网下载并安装适合你操作系统的Docker版本。 Windows10 安装 Docker,每个步骤作者亲测,细节记录最全教程 2. 编写D…

Sublime Text 配置 Terminal (CMD)

1. 安装package 按住 【ctrlshiftp】 , 在弹出的输入框中输入“install”,选择“install package”,回车,等待20秒左右 2. 安装terminal 按住 【ctrlshiftp】 , 在弹出的输入框中输入“install”,选择“install package”,回车,等待新弹窗出来&#…

稀土长余辉发光剂在陶瓷中的应用

稀土长余辉发光剂是一种特殊的发光材料,主要由稀土元素(如镧、铈、钕、铽、镝等)掺杂而成,基于电子陷阱机理,可实现长余辉效果,发光时间长达6-8小时。 稀土长余辉发光材料在陶瓷上的应用主要利用了其在激…

不相交的线(Lc1035)——动态规划

在两条独立的水平线上按给定的顺序写下 nums1 和 nums2 中的整数。 现在,可以绘制一些连接两个数字 nums1[i] 和 nums2[j] 的直线,这些直线需要同时满足: nums1[i] nums2[j]且绘制的直线不与任何其他连线(非水平线)相…

论文翻译:ChatGPT passing USMLE shines a spotlight on the flaws of medical education

ChatGPT passing USMLE shines a spotlight on the flaws of medical education https://journals.plos.org/digitalhealth/article?id10.1371/journal.pdig.0000205 ChatGPT 通过美国执业医师执照考试(USMLE)凸显了医学教育的缺陷 阿马拉奇B姆巴克韦1…

你不知道的100个国外搜索引擎升级版

首先是要支持国产品牌磁力狐-cilih.com DMOZ – 一个多语种、开放式网站目录。 Food Blog Search -可以让你从上千个博客和网站查找菜谱。 Swoogle – 一个语义、文件、术语和数据的搜索引擎,不同于普通的搜索引擎。 SimilarSiteSearch – 帮你找到相似…

排序------快速排序(C语言实现)

目录 快速排序算法 例题 题目描述 具体代码: 代码分析 函数定义: 主函数: 快速排序算法 快速排序(QuickSort)是一种高效的排序算法,它采用分治策略,通过选择一个“基准”元素并将其他元素…

计算机网络面试真题总结(五)

文章收录在网站:http://hardyfish.top/ 文章收录在网站:http://hardyfish.top/ 文章收录在网站:http://hardyfish.top/ 文章收录在网站:http://hardyfish.top/ 说一说HTTP1.0,1.1,2.0 的区别 HTTP/1.0 H…

国际篮球联合会(FIBA)标准篮球比赛记录表

相关资源 下载地址>>https://download.csdn.net/download/boomcode/89675132 篮球比赛计时计分展示管理系统开发及使用手册>>

3D渐变的轮播图效果,有点儿意思!

阅读原文:原文地址 一、前言 在Web开发中,轮播图(Carousel)是一种非常常见的功能,用于展示图片或内容,通过自动或手动的方式切换不同的视图,在网页设计中扮演着重要的角色。 吸引注意力&…

用Python给英语单词批量划分音节

一、问题的缘起 最近,有网友在我的视频下面留言,问我可否把英语单词进行音节的划分?我以前也有同样的想法,但是始终没有得到解决。但是,我想使用python,学习英语的人都很多,说不定有人已经编写…

微信左滑删除聊天记录怎么恢复?记录找回秘籍,第一种更有效!

在日常的指尖滑动间,微信成为了我们生活中不可或缺的一部分,记录着与朋友、家人的温馨对话,以及工作中的重要信息。然而,当不小心的向左滑动,珍贵的聊天记录就会悄然消失。那么,微信左滑删除聊天记录怎么恢…

给儿童掏耳朵用什么工具好?2024四款精品合集汇总

在为儿童掏耳朵时,选择合适的工具非常重要。普通的金属挖耳勺太过坚硬,容易弄伤儿童脆弱的耳道,并不适合。柔软的小棉签虽然相对安全一些,但也只能清理外耳道比较浅处的耳垢,而且若使用不当同样存在风险。 相比之下&am…

大数据驱动的数字化营销策略,开启营销新征程

​在当今这个数字化时代,大数据正以崭新的大力量重塑着企业的营销策略。今天,就让我们一同深入探讨大数据驱动的数字化营销策略究竟有着怎样的魅力。用蚓链获数据资产,享大数据福利! 大数据,精准定位目标客户的神器。…

【FPGA】HDMI参数信息汇总

文章列举已知大部分个人电脑屏幕尺寸信息,主要包括720p 1080p 2k 1440p 4k 5k以及8k屏幕。屏幕水平一行包括同步脉冲、后沿间隔、活跃像素、前沿间隔;屏幕垂直包括同步脉冲、后沿间隔、活跃行数、前沿间隔。 1. 720p (1280x720) 水平总像素 (HSYNC): 16…

element-plus 新增一行合计。除了用summary-method还可以用append的插槽

:summary-method"getSummaries" <el-table:data"reformtableData"style"width: 100%"show-summary:summary-method"getSummaries"ref"reformtableRef" > <el-table-column label"序号" type"index…

ArcGIS中怎么批量计算多个点到线最近距离,以及这些点到线的纬度差?

最近&#xff0c;我接到了一个关于批量计算多个点到线最近距离&#xff0c;以及这些点到线的纬度差的咨询。 下面是我对这个问题的解决思路&#xff1a; 先解决的如何计算是纬度差的问题&#xff0c;因为纬度差直接在地理坐标系下计算即可。 1,第一步对线要素转折点 2.接着在…

AI赚钱秘籍:如何利用大模型在2024年轻松月入过万?

随着人工智能技术的飞速发展&#xff0c;大模型已成为推动行业革新的重要力量。2024年&#xff0c;利用大模型技术月入过万已不再是遥不可及的梦想。本文将揭示AI赚钱的秘籍&#xff0c;帮助您在新的一年里通过大模型技术轻松实现月入过万的目标。 一、大模型技术概述 大模型技…

录屏怎么把声音录进去?三个方法让你告别无声录屏!

在数字化交流日益频繁的今天&#xff0c;录屏已经成为我们工作、学习及娱乐中不可或缺的一部分。然而&#xff0c;许多人在录屏时常常发现&#xff0c;尽管画面清晰&#xff0c;但声音却未能同步录制&#xff0c;这极大地影响了视频的完整性和观赏性。别担心&#xff0c;今天我…

超易企业管理系统 ajax/Login.ashx SQL注入致RCE漏洞复现

0x01 产品简介 超易软件作为一家专业从事企业管理软件的高新技术企业,其核心产品超易企业管理系统覆盖了企业日常运营的多个方面,包括进销存管理、仓库管理、销售管理、固定资产管理、人事管理等多个模块。这些模块相互关联,共同构成了一个全面的企业管理解决方案。 0x02 …