回归模型是什么
回归分析预测模型是一种统计方法,用于研究变量之间的关系,并通过已知数据来预测一个变量的值。回归分析通常包括自变量和因变量,目标是建立一个回归模型来描述它们之间的关系。
简单来说回归模型就是找出一条直线或曲线来尽可能地拟合所有的样本点,拟合的好坏通常通过误差(例如,残差平方和)来衡量,如果拟合误差较小那么我们认为样本符合此x和y的变量关系。如下图是一个简单的线性回归模型
一、线性回归模型
线性回归指的是两个变量之间的关系是一次函数,也就是图像是直线的。
一元线性回归:
建立模型:
一元线性回归指的是只有一个变量,也就是如下模型公式
误差最小化:
这里可以采用最小二乘法来使误差最小,对与已知数据,它通过最小化每个数据点到线的垂直偏差平方和来计算最佳拟合线。
损失函数:
要使损失函数最小,可知:
- 斜率k =
- 截距b =
Python代码
import numpy as np
from matplotlib import pyplot as plt
class LinearRegression:
def __init__(self, X, Y):
self.X = X
self.Y = Y
self.K = None
self.B = None
def caculateKB(self):
x_mean = np.mean(self.X)
y_mean = np.mean(self.Y)
n = 0.0
d = 0.0
for x, y in zip(self.X, self.Y):
n += (x - x_mean) * (y - y_mean)
d += (x - x_mean) ** 2
self.K = n / d
self.B = y_mean - (self.K * x_mean)
result = [self.K, self.B]
return result
def caculateY(self, n):
if self.K == None:
self.caculateKB()
predict = self.K * n + self.B
return predict
X=np.array([1,2,3,4,5,6,7,8,9,10]) #定义数据集
Y=2*X+np.random.normal(1,2,10) #Y是X的线性函数加上服从正态分布的随机误差
LinearRegression = LinearRegression(X,Y)
n = 11
result = LinearRegression.caculateY(n)
print(f'预测得y({n})的值为:{result}')
#计算残差和
y_predict = [LinearRegression.K * x + LinearRegression.B for x in X]
ss_residual=sum((y_predict - Y)**2) #残差平方和
ss_total=sum((Y-np.mean(Y))**2) #总平方和
print(f'残差和为:{ss_residual}')
#绘图
plt.scatter(X,Y)#绘制点
plt.plot(X,y_predict,color='r')#绘制回归线
plt.show()