回归分析-简单线性回归推导

news2024/9/20 15:35:33

回归分析-简单线性回归模型

在大数据分析中,回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。这种技术通常用于预测分析,时间序列模型以及发现变量之间的因果关系。例如,司机的鲁莽驾驶与道路交通事故数量之间的关系,最好的研究方法就是回归。来自百度百科
可以说是数据分析中非常简单的一个知识点,有一点点统计、分析、建模经验的人都知道这个分析的含义,也会用各种工具来做这个分析。这里面想把这个分析背后的细节讲讲清楚,也就是后面的数学原理。

一元线性回归是最简单的形式,它只包含一个自变量和一个因变量,二者直接的关系可以用一条直线近似表示,这种回归分析被称为简单线性回归。

可以用下面的公式表示 y是因变量,x是自变量。
y ‾ = a x + b (1.1) \overline{y}=ax+b \tag{1.1} y=ax+b(1.1)

假如广告投入与销售额存在这样一种线性关系,收集了一组广告投入与销售额的历史数据,那么如何确定a和b的值呢?这里先给出答案,后面再说推导过程。

b = y ‾ − a x ‾ (1.2) b=\overline{y}-a\overline{x} \tag{1.2} b=yax(1.2)
a = ∑ i = 1 n ( x i − x ‾ ) ( y i − y ‾ ) ∑ i = 1 n ( x i − x ‾ ) 2 (1.3) a=\frac{\sum_{i=1}^n(x_i-\overline{x})(y_i-\overline{y})}{\sum_{i=1}^n(x_i-\overline{x})^2} \tag{1.3} a=i=1n(xix)2i=1n(xix)(yiy)(1.3)

通过例子验算

摘自《商务与经济统计》这本书的一个示例

Armand比萨饼连锁店是经营意大利食品的餐馆,它们分布在美国5个州的范围内。Armand比萨饼连锁店的最佳位置在大学校园附近。管理人员确信,这些连锁店的季度销售收入(用y表示)与学生人数(用x表示)是正相关的。也就是说,学生较多比学生较少的校园附近的连锁店有获得较大的季度销售收入的倾向。利用回归分析,我们能求出一个说明因变量y是如何依赖自变量x的方程。

下面是10家Armand比萨饼店的季度销售数据,观测次数n=10,数据中给出了应变量为比萨饼店季度销售额,自变量为当前比萨饼店所在的学校的学生人数,现有一家新开的比萨饼店,已知这家店附近的学生人数,求比萨饼店季度销售额。

数据如下表

序号 x i x_i xi y i y_i yi x i − x ‾ x_i-\overline{x} xix y i − y ‾ y_i-\overline{y} yiy ( x i − x ‾ ) 2 (x_i-\overline{x})^2 (xix)2 ( x i − x ‾ ) ( y i − y ‾ ) (x_i-\overline{x})(y_i-\overline{y}) (xix)(yiy)
1258-12-72144864
26105-8-2564200
3888-6-4236252
48118-6-123672
512117-2-13426
61613727414
72015762736162
82016963936234
92214981964152
10262021272144864

根据上表计算
x ‾ = 14 \overline{x}=14 x=14 y ‾ = 130 \overline{y}=130 y=130 ∑ i = 1 n ( x i − x ‾ ) 2 = 568 \sum_{i=1}^n(x_i-\overline{x})^2=568 i=1n(xix)2=568 ∑ i = 1 n ( x i − x ‾ ) ( y i − y ‾ ) = 2840 \sum_{i=1}^n(x_i-\overline{x})(y_i-\overline{y})=2840 i=1n(xix)(yiy)=2840

求解简单线性回归方程

按公式 1.3 计算系统 a
a = ∑ i = 1 n ( x i − x ‾ ) ( y i − y ‾ ) ∑ i = 1 n ( x i − x ‾ ) 2 = 5 a=\frac{\sum_{i=1}^n(x_i-\overline{x})(y_i-\overline{y})}{\sum_{i=1}^n(x_i-\overline{x})^2}=5 a=i=1n(xix)2i=1n(xix)(yiy)=5
按公式1.2 计算系数 b
b = y ‾ − a x ‾ = 60 b=\overline{y}-a\overline{x}=60 b=yax=60
解得方程为
y ‾ = 5 x + 60 \overline{y}=5x+60 y=5x+60

与用Excel生成散点图,添加趋势线,显示的线性方程一致。
在这里插入图片描述

推导过程

因为本人基本忘光了高中和大学的数学知识,所以在学习原理的过程中废了很多时间,这个推导过程适合和我一样数学底子弱的人,大神可以略过!!


言归正传,上述方程(1.1)叫做Y对x的回归直线方程,b叫做回归系数。要想确定回归直线方程,我们只需确定a与回归系数b即可。

该方程预测出来的y值和实际的值差别越小越好,只有如此才能使直线最贴近已知点。我们求回归直线方程的过程其实就是求差别最小值的过程。

一个很自然的想法是把各个差加起来作为总差。可是,由于差有正有负,直接相加会互相抵消, 一般做法是我们用差的平方和,即:

Q = ∑ i = 1 n ( y i − y i ^ ) 2 = ∑ i = 1 n ( y i − ( a x i + b ) ) 2 = ∑ i = 1 n ( y i − a x i − b ) 2 (2.1) Q=\sum_{i=1}^n(y_i-\hat{y_i})^2=\sum_{i=1}^n(y_i-(ax_i+b))^2=\sum_{i=1}^n(y_i-ax_i-b)^2 \tag{2.1} Q=i=1n(yiyi^)2=i=1n(yi(axi+b))2=i=1n(yiaxib)2(2.1)

Q作为总差 ,并使之达到最小。这样回归直线就是所有直线中Q取最小值的那一条。由于平方又叫二乘方,所以这种使“离差平方和为最小”的方法,叫做最小二乘法。


怎么求最小的Q值呢?这是一个二次函数,对其求导,导数为0的时候取得最小值。至于为什么导数为了取值最小可以参考这篇文章极值与导数。这里就引出了导数,对导数不明白的可以参考这篇文章导数概念。

由于公式2.1描述的是因变量Q关于自变量a,b的函数 $Q=f(a,b) $ 是个二元函数,对二元函数求导,可以让其中一个自变量b固定(即看作常量),这时它就是a的一元函数,这时函数对a求导,就称为二元函数Q对于a的偏导数,又引入了偏导数的概念,不明白偏导数的可以参考这篇文章偏导数。

求导过程

∂ f ∂ b = 2 ∑ i = 1 n ( y i − a x i − b ) ) (2.2) \frac{\partial f}{\partial b}=2\sum_{i=1}^n(y_i-ax_i-b)) \tag{2.2} bf=2i=1n(yiaxib))(2.2)

2.2 式的推导过程
①幂函数求导公式
f ( x ) = x n f(x)=x^n f(x)=xn,则 f ′ ( x ) = n ⋅ x n − 1 f\prime(x)=n \cdot x^{n-1} f(x)=nxn1
②复合函数求导法则
$ f(g(x)) $ 求导
u = g ( x ) u=g(x) u=g(x) [ f ( g ( x ) ) ] ′ = f ′ ( u ) g ′ ( x ) [f(g(x))]\prime=f\prime(u)g\prime(x) [f(g(x))]=f(u)g(x)
③ 根据上两条规程推导
令 $u=y_i-ax_i-b $
$\frac{\partial f}{\partial b}=\sum_{i=1}^n{2u} \cdot (-1)=-2\sum_{i=1}^n(y_i-ax_i-b) $

∂ f ∂ a = ∑ i = 1 n 2 ( y i − a x i − b ) ⋅ ( − x i ) = − 2 ( ∑ i = 1 n x i y i − a ∑ i = 1 n x i 2 − b ∑ i = 1 n x i ) (2.3) \frac{\partial f}{\partial a}=\sum_{i=1}^n2(y_i-ax_i-b) \cdot (-x_i)=-2(\sum_{i=1}^n{x_iy_i}-a\sum_{i=1}^nx_i^2-b\sum_{i=1}^nx_i) \tag{2.3} af=i=1n2(yiaxib)(xi)=2(i=1nxiyiai=1nxi2bi=1nxi)(2.3)

∂ f ∂ a = 0 \frac{\partial f}{\partial a}=0 af=0 ∂ f ∂ b = 0 \frac{\partial f}{\partial b}=0 bf=0 n x ‾ = ∑ i = 1 n x i n\overline{x}=\sum_{i=1}^nx_i nx=i=1nxi n y ‾ = ∑ i = 1 n y i n\overline{y}=\sum_{i=1}^ny_i ny=i=1nyi
求解 a 和 b
n y ‾ − a n x ‾ − n b = 0 (2.4) n\overline{y}-an\overline{x}-nb=0 \tag{2.4} nyanxnb=0(2.4)
∑ i = 1 n x i y i − a ∑ i = 1 n x i 2 − b ∑ i = 1 n x i = 0 (2.5) \sum_{i=1}^n{x_iy_i}-a\sum_{i=1}^nx_i^2-b\sum_{i=1}^nx_i=0 \tag{2.5} i=1nxiyiai=1nxi2bi=1nxi=0(2.5)
b = y ‾ − a x ‾ (2.6) b=\overline{y}-a\overline{x} \tag{2.6} b=yax(2.6)
∑ i = 1 n x i y i − a ∑ i = 1 n x i 2 − y ‾ ∑ i = 1 n x i + a x ‾ ∑ i = 1 n x i = 0 (2.7) \sum_{i=1}^nx_iy_i-a\sum_{i=1}^nx_i^2-\overline{y}\sum_{i=1}^nx_i+a\overline{x}\sum_{i=1}^nx_i=0 \tag{2.7} i=1nxiyiai=1nxi2yi=1nxi+axi=1nxi=0(2.7)

a = ∑ i = 0 n x i y i − y ‾ ∑ i = 0 n x i ∑ i = 0 n x i 2 − x ‾ ∑ i = 0 n x i = ∑ i = 0 n ( x i − x ‾ ) ( y i − y ‾ ) ∑ i = 0 n ( x i − x ‾ ) 2 (2.8) a=\frac{\sum_{i=0}^nx_iy_i-\overline{y}\sum_{i=0}^nx_i}{\sum_{i=0}^nx_i^2-\overline{x}\sum_{i=0}^nx_i}=\frac{\sum_{i=0}^n(x_i-\overline{x})(y_i-\overline{y})}{\sum_{i=0}^n(x_i-\overline{x})^2} \tag{2.8} a=i=0nxi2xi=0nxii=0nxiyiyi=0nxi=i=0n(xix)2i=0n(xix)(yiy)(2.8)

式2.8 的推导请看求和性质

求和性质

求和性质,具体可以参考Introductory Econometrics A Modern Approach (Fourth Edition) 一书(计量经济学导论,第4版,杰弗里·M·伍德里奇 著)的附录A。

求和性质证明

∑ i = 0 n ( x i − x ‾ ) 2 = ∑ i = 0 n ( x i 2 − 2 x i x ‾ + x ‾ 2 ) = ∑ i = 0 n x i 2 − 2 x ‾ ∑ i = 0 n x i + ∑ i = 0 n x ‾ 2 = ∑ i = 0 n x i 2 − 2 n x ‾ 2 + n x ‾ 2 = ∑ i = 0 n x i 2 − n x ‾ 2 = ∑ i = 0 n x i 2 − x ‾ ∑ i = 0 n x i \begin{aligned} & \sum_{i=0}^n(x_i-\overline{x})^2=\sum_{i=0}^n(x_i^2-2x_i\overline{x}+\overline{x}^2) \\ & =\sum_{i=0}^nx_i^2-2\overline{x}\sum_{i=0}^nx_i+\sum_{i=0}^n\overline{x}^2 \\ & =\sum_{i=0}^nx_i^2-2n\overline{x}^2+n\overline{x}^2 \\ & =\sum_{i=0}^nx_i^2-n\overline{x}^2 \\ & =\sum_{i=0}^nx_i^2-\overline{x}\sum_{i=0}^nx_i \end{aligned} i=0n(xix)2=i=0n(xi22xix+x2)=i=0nxi22xi=0nxi+i=0nx2=i=0nxi22nx2+nx2=i=0nxi2nx2=i=0nxi2xi=0nxi

分母得证

∑ i = 0 n ( x i − x ‾ ) ( y i − y ‾ ) = ∑ i = 0 n ( x i y i − x i y ‾ − x ‾ y i + x ‾ y ‾ ) = ∑ i = 0 n x i y i − n x ‾ y ‾ − n x ‾ y ‾ + n x ‾ y ‾ = ∑ i = 0 n x i y i − y ‾ ∑ i = 0 n x i \begin{aligned} & \sum_{i=0}^n(x_i-\overline{x})(y_i-\overline{y}) \\ & =\sum_{i=0}^n(x_iy_i-x_i\overline{y}-\overline{x}y_i+\overline{x}\overline{y}) \\ & =\sum_{i=0}^nx_iy_i-n\overline{x}\overline{y}-n\overline{x}\overline{y}+n\overline{x}\overline{y} \\ & =\sum_{i=0}^nx_iy_i-\overline{y}\sum_{i=0}^nx_i \end{aligned} i=0n(xix)(yiy)=i=0n(xiyixiyxyi+xy)=i=0nxiyinxynxy+nxy=i=0nxiyiyi=0nxi

分子得证

很原始(笨)的导数推导过程

求函数f(x,y),对x的偏导

∂ f ∂ x = lim ⁡ Δ x → 0 f ( x + Δ x , y ) − f ( x , y ) Δ x (3.1) \frac{\partial f}{\partial x}=\lim_ {\Delta x \to 0}\frac{f(x+\Delta x,y)-f(x,y)}{\Delta x} \tag{3.1} xf=Δx0limΔxf(x+Δx,y)f(x,y)(3.1)

求函数f(x,y),对y的偏导

∂ f ∂ y = lim ⁡ Δ y → 0 f ( x , y + Δ y ) − f ( x , y ) Δ y (3.2) \frac{\partial f}{\partial y}=\lim_ {\Delta y \to 0}\frac{f(x,y+\Delta y)-f(x,y)}{\Delta y} \tag{3.2} yf=Δy0limΔyf(x,y+Δy)f(x,y)(3.2)

对 a 求偏导

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n ( y i − ( ( a + Δ a ) x i + b ) ) 2 − ( y i − ( a x i + b ) ) 2 Δ a (3.3) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{(yi-((a+\Delta a)x_i+b))^2-(y_i-(ax_i+b))^2}{\Delta a} \tag{3.3} af=Δa0limi=1nΔa(yi((a+Δa)xi+b))2(yi(axi+b))2(3.3)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n ( ( y i − b ) − ( a + Δ a ) x i ) 2 − ( ( y i − b ) − a x i ) 2 Δ a (3.4) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{((yi-b)-(a+\Delta a)x_i)^2-((y_i-b)-ax_i)^2}{\Delta a} \tag{3.4} af=Δa0limi=1nΔa((yib)(a+Δa)xi)2((yib)axi)2(3.4)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n ( ( y i − b ) 2 − 2 x i ( y i − b ) ( a + Δ a ) + x i 2 ( a + Δ a ) 2 ) − ( ( y i − b ) 2 − 2 a ( y i − b ) x i + a 2 x i 2 ) Δ a (3.5) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{((yi-b)^2-2x_i(yi-b)(a+\Delta a)+x_i^2(a+\Delta a)^2)-((y_i-b)^2-2a(y_i-b)x_i+a^2x_i^2)}{\Delta a} \tag{3.5} af=Δa0limi=1nΔa((yib)22xi(yib)(a+Δa)+xi2(a+Δa)2)((yib)22a(yib)xi+a2xi2)(3.5)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n ( y i − b ) 2 − 2 x i ( y i − b ) ( a + Δ a ) + x i 2 ( a + Δ a ) 2 − ( y i − b ) 2 + 2 a ( y i − b ) x i − a 2 x i 2 Δ a (3.6) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{(yi-b)^2-2x_i(y_i-b)(a+\Delta a)+x_i^2(a+\Delta a)^2-(y_i-b)^2+2a(y_i-b)x_i-a^2x_i^2}{\Delta a} \tag{3.6} af=Δa0limi=1nΔa(yib)22xi(yib)(a+Δa)+xi2(a+Δa)2(yib)2+2a(yib)xia2xi2(3.6)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n − 2 x i ( a + Δ a ) ( y i − b ) + x i 2 ( a + Δ a ) 2 + 2 a ( y i − b ) x i − a 2 x i 2 Δ a (3.7) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{-2x_i(a+\Delta a)(y_i-b)+x_i^2(a+\Delta a)^2+2a(y_i-b)x_i-a^2x_i^2}{\Delta a} \tag{3.7} af=Δa0limi=1nΔa2xi(a+Δa)(yib)+xi2(a+Δa)2+2a(yib)xia2xi2(3.7)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n − 2 x i ( y i − b ) Δ a + x i 2 ( a + Δ a ) 2 − a 2 x i 2 Δ a (3.8) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{-2x_i(y_i-b)\Delta a+x_i^2(a+\Delta a)^2-a^2x_i^2}{\Delta a} \tag{3.8} af=Δa0limi=1nΔa2xi(yib)Δa+xi2(a+Δa)2a2xi2(3.8)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n − 2 x i ( y i − b ) Δ a + x i 2 ( a 2 + 2 a Δ a + Δ a 2 ) − a 2 x i 2 Δ a (3.9) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{-2x_i(y_i-b)\Delta a+x_i^2(a^2+2a\Delta a+\Delta a^2)-a^2x_i^2}{\Delta a} \tag{3.9} af=Δa0limi=1nΔa2xi(yib)Δa+xi2(a2+2aΔa+Δa2)a2xi2(3.9)

∂ f ∂ a = lim ⁡ Δ a → 0 ∑ i = 1 n − 2 x i ( y i − b ) Δ a + a 2 x i 2 + x i 2 2 a Δ a + x i 2 Δ a 2 − a 2 x i 2 Δ a (3.10) \frac{\partial f}{\partial a}=\lim_ {\Delta a \to 0}\sum_{i=1}^n\frac{-2x_i(yi-b)\Delta a+a^2x_i^2+x_i^22a\Delta a+x_i^2\Delta a^2-a^2x_i^2}{\Delta a} \tag{3.10} af=Δa0limi=1nΔa2xi(yib)Δa+a2xi2+xi22aΔa+xi2Δa2a2xi2(3.10)

∂ f ∂ a = lim ⁡ ∑ i = 1 n − 2 x i ( y i − b ) + x i 2 2 a + x i 2 Δ a (3.11) \frac{\partial f}{\partial a}=\lim_ {}\sum_{i=1}^n{-2x_i(y_i-b)+x_i^22a+x_i^2\Delta a} \tag{3.11} af=limi=1n2xi(yib)+xi22a+xi2Δa(3.11)

∂ f ∂ a = lim ⁡ ∑ i = 1 n 2 x i 2 a − 2 x i y i + 2 x i b (3.12) \frac{\partial f}{\partial a}=\lim_ {}\sum_{i=1}^n{2x_i^2a-2x_iy_i+2x_ib} \tag{3.12} af=limi=1n2xi2a2xiyi+2xib(3.12)

∂ f ∂ a = lim ⁡ ∑ i = 1 n 2 x i ( x i a − y i + b ) (3.13) \frac{\partial f}{\partial a}=\lim_ {}\sum_{i=1}^n{2x_i(x_ia-y_i+b)} \tag{3.13} af=limi=1n2xi(xiayi+b)(3.13)

∂ f ∂ a = − 2 lim ⁡ ∑ i = 1 n x i ( y i − x i a − b ) ) (3.14) \frac{\partial f}{\partial a}=-2\lim_ {}\sum_{i=1}^n{x_i(y_i-x_ia-b))} \tag{3.14} af=2limi=1nxi(yixiab))(3.14)

对 b 求偏导

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n ( y i − ( a x i + ( b + Δ b ) ) 2 − ( y i − ( a x i + b ) ) 2 Δ b (4.1) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n\frac{(yi-(ax_i+(b+\Delta b))^2-(y_i-(ax_i+b))^2}{\Delta b} \tag{4.1} bf=Δb0limi=1nΔb(yi(axi+(b+Δb))2(yi(axi+b))2(4.1)

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n ( ( y i − a x i ) − ( b + Δ b ) ) 2 − ( ( y i − a x i ) − b ) ) 2 Δ b (4.2) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n\frac{((y_i-ax_i)-(b+\Delta b))^2-((y_i-ax_i)-b))^2}{\Delta b} \tag{4.2} bf=Δb0limi=1nΔb((yiaxi)(b+Δb))2((yiaxi)b))2(4.2)

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n ( y i − a x i ) 2 − 2 ( y i − a x i ) ( b + Δ b ) + ( b + Δ b ) 2 − ( y i − a x i ) 2 + 2 ( y i − a x i ) b − b 2 Δ b (4.3) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n\frac{(y_i-ax_i)^2-2(y_i-ax_i)(b+\Delta b)+(b+\Delta b)^2-(y_i-ax_i)^2+2(y_i-ax_i)b-b^2}{\Delta b} \tag{4.3} bf=Δb0limi=1nΔb(yiaxi)22(yiaxi)(b+Δb)+(b+Δb)2(yiaxi)2+2(yiaxi)bb2(4.3)

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n Δ b 2 + 2 b Δ b − 2 ( y i − a x i ) Δ b Δ b (4.4) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n\frac{\Delta b^2+2b\Delta b-2(y_i-ax_i)\Delta b}{\Delta b} \tag{4.4} bf=Δb0limi=1nΔbΔb2+2bΔb2(yiaxi)Δb(4.4)

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n 2 b − 2 ( y i − a x i ) (4.5) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n{2b-2(y_i-ax_i)} \tag{4.5} bf=Δb0limi=1n2b2(yiaxi)(4.5)

∂ f ∂ b = lim ⁡ Δ b → 0 ∑ i = 1 n 2 ( b + a x i − y i ) (4.6) \frac{\partial f}{\partial b}=\lim_ {\Delta b \to 0}\sum_{i=1}^n{2(b+ax_i-y_i)} \tag{4.6} bf=Δb0limi=1n2(b+axiyi)(4.6)

参考最小二乘法推导

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/548175.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

浏览器免费安装ChatGPT插件与国内免费ChatGPT分享

文章目录 一、什么是ChatGPT?ChatGPT的功能: 二、如果在Edge上安装chatgpt插件三、国内免费ChatGPT四、ChatGPT程序员的影响五、Chatgp能取代程序员吗? 一、什么是ChatGPT? ChatGPT是一种基于自然语言处理的机器学习算法&#xf…

【牛客刷题】 选择题整理day3~day4

在知识的海洋里彻底疯狂!!! 文章目录 1. try-catch-finally2. 方法调用3. 接口4. 1. try-catch-finally try-catch-finally的执行机制是 try块是不能被省略的,用于包含可能会抛出异常的代码,如果没有try块&#xff0c…

Linux之DNAT策略及应用与tcpdump抓包

目录 一、DNAT的介绍 二、DNAT实验设计 三、DNAT具体实验步骤操作 第一步:配置好网卡与环境 第二步:web服务器安装httpd服务,且开启httpd服务 第三步:对网关服务器进行操作 1.设置路由转发 2.设置SNAT 四、tcpdump抓包工具…

yooasset+hybridclr在android,ios端热更新测试

Hybridclr+YooAsset+Unity Run android+iOS 这个工程是用来学习YooAsset和Hybridcl,来做unity资源和代码热更新, 实现了android 和ios 双端,跑通。 源码在文章最后。 版本 很新的版本 用到的YooAsset 1.4.13 用到的HybridCLR 2.4.2 yooAsset git网址 https://github.co…

CVTE C++软开全程面试(一面、二面、群面、HR面)

一面,面了一个钟,问了很多问题,大部分是计算机的基础知识,我也只能记录下一部分。 C的继承问题,protected成员被public、protected和private继承的情况。 下面是关于protected成员在不同类型继承中的访问权限&#xff…

声音合成——Foley Sound——DECASE项目——多模态智能感知与应用——论文翻译

文章目录 概述论文翻译CONDITIONAL SOUND GENERATION USING NEURAL DISCRETE TIME-FREQUENCY REPRESENTATION LEARNINGAbstractSampleRNN是啥? Introduction个人总结(省流)补充个人感想 Approach2.1 Discrete time-frequency省流总结2.1.1 Mu…

http2

HTTP: HTTP/2 - High Performance Browser Networking (OReilly) 以下内容都是上面这篇文章的一些总结(或者说翻译hiahia) http2是由谷歌的SPDY之上演变而来的。主要涉及的技术包括: 头部压缩,多路复用,请求优先级 …

使用Docker Dockerfile构建php LNMP集成开发环境,并运行Thinkphp5

宿主机环境 系统:MAC、Windows10 Docker版本:Docker version 23.0.5 Docker Desktop:Dockerdesktop官方地址 前言 这篇主要介绍如何在Mac、Windows10使用docker搭建LNMP集成开发环境。下面我会写Dockerfile编译安装Nginxphp基础环境。mysql、redis基…

多维时序 | MATLAB实现基于贝叶斯线性回归(Bayesian Regression)的多变量时间序列预测

多维时序 | MATLAB实现基于贝叶斯线性回归(Bayesian Regression)的多变量输入回归预测 目录 多维时序 | MATLAB实现基于贝叶斯线性回归(Bayesian Regression)的多变量输入回归预测预测效果基本介绍模型描述程序设计参考资料预测效果 基本介绍 多维时序 | MATLAB实现基于贝叶斯线…

Rocky Linux 8.8 发布 - CentOS 的权威替代

Rocky Linux 8.8 发布 - CentOS 的权威替代 Rocky Linux 由 CentOS 项目的创始人 Gregory Kurtzer 领导 请访问原文链接:https://sysin.org/blog/rocky-linux-8/,查看最新版。原创作品,转载请保留出处。 作者主页:sysin.org 以…

Linux-Shell编程

一,shell编程的概念 1.0Shell与内核的关系 内核是Linux系统的核心,它是操作系统的最底层部分,负责管理计算机的硬件资源,例如CPU、内存、磁盘等。内核还提供了许多系统调用,供应用程序使用,例如打开文件、…

数字员工IN淄博:淄博烧烤火出圈,政务服务很圈粉!

“小饼烤炉加蘸料,灵魂烧烤三件套”,淄博烧烤近期在各大社交媒体平台火爆出圈,不少人慕名前往亲身体验人间烟火气,让这座传统工业城市再度名声鹊起,焕活了淄博文旅市场的发展潜能。淄博人民的淳朴热情造就了这一次淄博…

STM32F401RET6 LQFP64 (Nucleo-F401RE) SPI通信(主从双机SPI通信)

STM32F401RET6 LQFP64 (Nucleo-F401RE) SPI通信(主从双机SPI通信) 1.1 SPI总线介绍 SPI 通讯使用 3 条总线及片选线,3 条总线分别为 SCK、MOSI、MISO,片选线为NSS(CS) NSS 信号线由高变低 ,是 SPI 通讯的起始信号 。…

Redis系列--redis集群

一、redis集群介绍 一、简介与注意事项 由于数据量过大,当单个master挂了再slave进行选举时,会有一定时间内无法进行写操作,会出现数据的丢失。也就数说单个master复制集难以承担,因此需要对多个复制集进行集群,形成水…

AcWing 243. 一个简单的整数问题2

题目描述 题目链接:AcWing 243. 一个简单的整数问题2 给定一个长度为 N 的数列 A,以及 M 条指令,每条指令可能是以下两种之一: C l r d,表示把 A[l],A[l1],…,A[r] 都加上 d。 Q l r,表示询问数列中第 l∼…

【5.20】五、安全测试——安全测试工具

目录 5.4 常见的安全测试工具 1. Web漏洞扫描工具——AppScan 2. 端口扫描工具——Nmap 3. 抓包工具——Fiddler 4. Web渗透测试工具——Metasploit 小提示:Kali Linux 5.4 常见的安全测试工具 安全测试是一个非常复杂的过程,测试所使用到的工具也…

自学网络安全/Web安全,一般人我还是劝你算了吧

由于我之前写了不少网络安全技术相关的文章,不少读者朋友知道我是从事网络安全相关的工作,于是经常有人私信问我: 我刚入门网络安全,该怎么学? 要学哪些东西? 有哪些方向? 怎么选&a…

【leetcode】1373. 二叉搜索子树的最大键值和

二叉搜索子树的最大键值和 问题描述问题简单分析提交之旅第一次提交-失败第二次提交-失败第三次提交-成功 问题描述 二叉搜索子树的最大键值和 给你一棵以 root 为根的 二叉树 ,请你返回 任意 二叉搜索子树的最大键值和。 二叉搜索树的定义如下: 任意节…

JVM学习(六)

1. JAVA 集合 1.1. 接口继承关系和实现 集合类存放于 Java.util 包中,主要有 3 种:set(集)、list(列表包含 Queue)和 map(映射)。 1. Collection:Collection 是集合 List、Set、Queue 的最基本的接口。 2. Iterato…

Apple Safari 16.5 发布- macOS 专属浏览器 (独立安装包下载)

Apple Safari 16.5 - macOS 专属浏览器 (独立安装包下载) Safari 浏览器 16 for macOS Montery, Big Sur 请访问原文链接:https://sysin.org/blog/apple-safari-16/,查看最新版。原创作品,转载请保留出处。 作者主页:sysin.org…