【深度学习】—线性回归 线性回归的基本元素 线性模型 损失函数 解析解 随机梯度下降

news2024/11/18 3:18:28

【深度学习】—

  • 线性回归
    • 线性回归的基本元素
  • 线性模型
  • 损失函数
  • 解析解
  • 随机梯度下降
    • 小批量随机梯度下降
        • 梯度下降算法的详细步骤
        • 解释公式

线性回归

回归(regression)是能为⼀个或多个⾃变量与因变量之间关系建模的⼀类⽅法。在⾃然科学和社会科学领域,回归经常⽤来表⽰输⼊和输出之间的关系。在机器学习领域中的⼤多数任务通常都与预测(prediction)有关。当我们想预测⼀个数值时,就会涉及到回归问题。常⻅的例⼦包括:预测价格(房屋、股票等)、预测住院时间(针对住院病⼈等)、预测需求(零售销量等)。但不是所有的预测都是回归问题。在后⾯的章节中,我们将介绍分类问题。分类问题的⽬标是预测数据属于⼀组类别中的哪⼀个。

线性回归的基本元素

线性回归(linear regression)可以追溯到19世纪初,它在回归的各种标准工具中最简单而且最流行。线性回归基于几个简单的假设:首先,假设自变量 x \mathbf{x} x 和因变量 y y y 之间的关系是线性的,即 y y y 可以表示为 x \mathbf{x} x 中元素的加权和,这里通常允许包含观测值的一些噪声;其次,我们假设任何噪声都比较正常,如噪声遵循正态分布。

为了解释线性回归,我们举一个实际的例子:我们希望根据房屋的面积(平方英尺)和房龄(年)来估算房屋价格(美元)。为了开发一个能预测房价的模型,我们需要收集一个真实的数据集。这个数据集包括了房屋的销售价格、面积和房龄。在机器学习的术语中,该数据集称为训练数据集(training data set)或训练集(training set)。每行数据(比如一次房屋交易相对应的数据)称为样本(sample),也可以称为数据点(data point)或数据样本(data instance)。我们把试图预测的目标(比如预测房屋价格)称为标签(label)或目标(target)。预测所依据的自变量(面积和房龄)称为特征(feature)或协变量(covariate)。

通常,我们使用 n n n 来表示数据集中的样本数。对索引为 i i i 的样本,其输入表示为 x ( i ) = [ x 1 ( i ) , x 2 ( i ) ] ⊤ \mathbf{x}^{(i)} = [x_1^{(i)}, x_2^{(i)}]^\top x(i)=[x1(i),x2(i)],其对应的标签是 y ( i ) y^{(i)} y(i)

线性模型

线性假设是指目标(房屋价格)可以表示为特征(面积和房龄)的加权和,如下面的式子:

price = w area ⋅ area + w age ⋅ age + b (3.1.1) \text{price} = w_{\text{area}} \cdot \text{area} + w_{\text{age}} \cdot \text{age} + b \tag{3.1.1} price=wareaarea+wageage+b(3.1.1)

在 (3.1.1) 中, w area w_{\text{area}} warea w age w_{\text{age}} wage 称为权重(weight),权重决定了每个特征对我们预测值的影响。 b b b 称为偏置(bias)、偏移量(offset)或截距(intercept)。偏置是指当所有特征都取值为 0 时,预测值应该为多少。即使现实中不会有任何房子的面积是 0 或房龄正好是 0 年,我们仍然需要偏置项。如果没有偏置项,我们模型的表达能力将受到限制。严格来说,(3.1.1) 是输入特征的一个仿射变换(affine transformation)。仿射变换的特点是通过加权和对特征进行线性变换(linear transformation),并通过偏置项来进行平移(translation)。

给定一个数据集,我们的目标是寻找模型的权重 w \mathbf{w} w 和偏置 b b b,使得根据模型做出的预测大体符合数据里的真实价格。输出的预测值由输入特征通过线性模型的仿射变换决定,仿射变换由所选权重和偏置确定。

而在机器学习领域,我们通常使用的是高维数据集,建模时采用线性代数表示法会比较方便。当我们的输入包含 d d d 个特征时,我们将预测结果 y ^ \hat{y} y^ (通常使用“尖角”符号表示 y y y 的估计值)表示为:

y ^ = w 1 x 1 + . . . + w d x d + b (3.1.2) \hat{y} = w_1 x_1 + ... + w_d x_d + b \tag{3.1.2} y^=w1x1+...+wdxd+b(3.1.2)

将所有特征放到向量 x ∈ R d \mathbf{x} \in \mathbb{R}^d xRd 中,并将所有权重放到向量 w ∈ R d \mathbf{w} \in \mathbb{R}^d wRd 中,我们可以用点积形式来简洁地表达模型:

y ^ = w ⊤ x + b (3.1.3) \hat{y} = \mathbf{w}^\top \mathbf{x} + b \tag{3.1.3} y^=wx+b(3.1.3)

在 (3.1.3) 中,向量 x \mathbf{x} x 对应于单个数据样本的特征。用符号表示的矩阵 X ∈ R n × d \mathbf{X} \in \mathbb{R}^{n \times d} XRn×d 可以很方便地引用我们整个数据集的 n n n 个样本。其中, X \mathbf{X} X 的每一行是一个样本,每一列是一种特征。

对于特征集合 X \mathbf{X} X,预测值 y ^ ∈ R n \hat{\mathbf{y}} \in \mathbb{R}^n y^Rn 可以通过矩阵-向量乘法表示为:

y ^ = X w + b (3.1.4) \hat{\mathbf{y}} = \mathbf{X} \mathbf{w} + b \tag{3.1.4} y^=Xw+b(3.1.4)

这个过程中的求和将使用广播机制(广播机制在 2.1.3 节中有详细介绍)。给定训练数据特征 X \mathbf{X} X 和对应的已知标签 y \mathbf{y} y,线性回归的目标是找到一组权重向量 w \mathbf{w} w 和偏置 b b b:当给定从 X \mathbf{X} X 的同分布中取样的新样本特征时,这组权重向量和偏置能够使得新样本预测标签的误差尽可能小。

虽然我们相信给定 x \mathbf{x} x 预测 y y y 的最佳模型会是线性的,但我们很难找到一个有 n n n 个样本的真实数据集,其中对于所有的 1 ≤ i ≤ n 1 \le i \le n 1in y ( i ) y^{(i)} y(i) 完全等于 w ⊤ x ( i ) + b \mathbf{w}^\top \mathbf{x}^{(i)} + b wx(i)+b。无论我们使用什么手段来观察特征 X \mathbf{X} X 和标签 y \mathbf{y} y,都可能会出现少量的观测误差。因此,即使确信特征与标签的潜在关系是线性的,我们也会加入一个噪声项来考虑观测误差带来的影响。

在开始寻找最好的模型参数(model parameters) w \mathbf{w} w b b b 之前,我们还需要两个东西:(1)一种模型质量的度量方式;(2)一种能够更新模型以提高模型预测质量的方法。

损失函数

在开始考虑如何用模型拟合数据之前,我们需要确定一个衡量拟合程度的标准。损失函数(loss function)用于量化目标的真实值与预测值之间的差距,通常是一个非负数,数值越小表示模型预测越准确,完美预测时损失为 0。

在回归问题中,最常用的损失函数是平方误差函数。对于样本 i i i,假设预测值为 y ^ ( i ) \hat{y}^{(i)} y^(i),实际标签为 y ( i ) y^{(i)} y(i),则平方误差可以定义为:

l ( i ) ( w , b ) = 1 2 ( y ^ ( i ) − y ( i ) ) 2 (3.1.5) l^{(i)}(w, b) = \frac{1}{2} (\hat{y}^{(i)} - y^{(i)})^2 \tag{3.1.5} l(i)(w,b)=21(y^(i)y(i))2(3.1.5)

这里的 1 2 \frac{1}{2} 21 只是为了在求导时使公式更简洁,不影响结果的本质。
为⼀维情况下的回归问题绘制图像
在这里插入图片描述

为了衡量模型在整个数据集上的表现,我们计算所有 n n n 个样本的损失均值,称为平均损失:

L ( w , b ) = 1 n ∑ i = 1 n l ( i ) ( w , b ) = 1 n ∑ i = 1 n 1 2 ( w ⊤ x ( i ) + b − y ( i ) ) 2 (3.1.6) L(\mathbf{w}, b) = \frac{1}{n} \sum_{i=1}^{n} l^{(i)}(\mathbf{w}, b) = \frac{1}{n} \sum_{i=1}^{n} \frac{1}{2} ( \mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)})^2 \tag{3.1.6} L(w,b)=n1i=1nl(i)(w,b)=n1i=1n21(wx(i)+by(i))2(3.1.6)

在训练模型时,我们的目标是寻找一组参数 ( w ∗ , b ∗ ) (\mathbf{w}^*, b^*) (w,b),使得所有训练样本上的总损失达到最小,即:

w ∗ , b ∗ = arg ⁡ min ⁡ w , b L ( w , b ) (3.1.7) \mathbf{w}^*, b^* = \arg \min_{\mathbf{w}, b} L(\mathbf{w}, b) \tag{3.1.7} w,b=argw,bminL(w,b)(3.1.7)

解析解

线性回归是一个非常简单的优化问题,与大部分复杂模型不同,它的解可以用一个明确的公式表达出来,这类解被称为解析解(analytical solution)。

首先,我们将偏置 b b b 合并到参数 w \mathbf{w} w 中,方法是将所有参数包含在一个矩阵中并附加一列常数 1。这样,预测问题就变成了最小化 ∥ y − X w ∥ 2 \|\mathbf{y} - \mathbf{X}\mathbf{w}\|^2 yXw2。由于损失函数在整个平面上只有一个临界点,这个临界点即对应于整个区域的最小损失。

通过对 w \mathbf{w} w 求导并设导数为 0,可以得到线性回归的解析解:

w ∗ = ( X ⊤ X ) − 1 X ⊤ y (3.1.8) \mathbf{w}^* = (\mathbf{X}^\top \mathbf{X})^{-1} \mathbf{X}^\top \mathbf{y} \tag{3.1.8} w=(XX)1Xy(3.1.8)

像线性回归这样的简单问题存在解析解,但并不是所有的问题都能找到解析解。尽管解析解在数学上易于分析,但由于它对问题的要求很严格,因此无法广泛应用于深度学习。

随机梯度下降

即使在无法得到解析解的情况下,我们仍然可以有效地训练模型。实际上,在许多任务中,那些难以优化的模型往往表现得更好,因此,学会如何训练这些难以优化的模型非常重要。

梯度下降(gradient descent)它几乎可以优化所有深度学习模型。梯度下降通过不断沿着损失函数递减的方向更新参数来减少误差。

小批量随机梯度下降

梯度下降最直接的方法是计算整个数据集上损失函数关于模型参数的导数(即梯度),但这种方式在实践中可能非常慢,因为每次更新参数之前都需要遍历整个数据集。为此,我们通常采用一种称为小批量随机梯度下降(minibatch stochastic gradient descent)的变体。

在每次迭代中,我们首先随机抽取一个小批量 B B B,它由固定数量的训练样本组成。然后,计算小批量样本的平均损失关于模型参数的导数。最后,我们将梯度乘以一个预先设定的正数 η \eta η,并从当前参数值中减去这个结果。用数学公式表示该更新过程:

( w , b ) ← ( w , b ) − η 1 ∣ B ∣ ∑ i ∈ B ∂ ∂ ( w , b ) l ( i ) ( w , b ) (3.1.9) (\mathbf{w}, b) \leftarrow (\mathbf{w}, b) - \eta \frac{1}{|B|} \sum_{i \in B} \frac{\partial}{\partial (\mathbf{w}, b)} l^{(i)}(\mathbf{w}, b) \tag{3.1.9} (w,b)(w,b)ηB1iB(w,b)l(i)(w,b)(3.1.9)

梯度下降算法的详细步骤

具体来说,梯度下降算法的步骤如下:

  1. 初始化参数:随机初始化模型参数 w w w b b b
  2. 从数据集中随机抽取小批量样本:从训练数据中随机抽取小批量样本 B B B
  3. 计算梯度并更新参数:计算损失函数在小批量上的梯度,并沿着负梯度方向更新参数。
  4. 重复步骤 2 和 3,直到达到预定的迭代次数或满足其他停止条件。

针对平方损失和仿射变换,我们可以明确写出参数更新的公式:

w ← w − η 1 ∣ B ∣ ∑ i ∈ B x ( i ) ( w ⊤ x ( i ) + b − y ( i ) ) \mathbf{w} \leftarrow \mathbf{w} - \eta \frac{1}{|B|} \sum_{i \in B} \mathbf{x}^{(i)} \left( \mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)} \right) wwηB1iBx(i)(wx(i)+by(i))

b ← b − η 1 ∣ B ∣ ∑ i ∈ B ( w ⊤ x ( i ) + b − y ( i ) ) (3.1.10) b \leftarrow b - \eta \frac{1}{|B|} \sum_{i \in B} \left( \mathbf{w}^\top \mathbf{x}^{(i)} + b - y^{(i)} \right) \tag{3.1.10} bbηB1iB(wx(i)+by(i))(3.1.10)

解释公式
  • 在上面的公式中, w \mathbf{w} w 是权重向量, x ( i ) \mathbf{x}^{(i)} x(i) 是样本 i i i 的特征向量。
  • η \eta η 是学习率,控制每次参数更新的步长。如果 η \eta η 太大,参数可能会来回振荡;如果 η \eta η 太小,收敛速度会非常慢。
  • ∣ B ∣ |B| B 表示小批量的大小,这决定了每次计算梯度时使用的样本数量。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2175561.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【MYSQL】授权远程连接的用户

文章目录 一、Navicat新建查询1.点击新建查询,授权远程连接的用户语句:2.刷新权限 二、Navicat用户 一、Navicat新建查询 1.点击新建查询,授权远程连接的用户语句: GRANT ALL PRIVILEGES ON *.* TO 库的用户名授权IP IDENTIFIED …

注册器设计模式,以SparseInst(detectron2)代码为例

注册器设计模式 from detectron2.utils.registry import Registry 这里面的Registry实际上就是注册器设计模式 1.举一个简单版的小例子来理解注册器设计模式 参考:Python注册器设计模式_python 注册类-CSDN博客 # 这一行代码是从Python的 typing 模块中导入了一些…

3分钟教程,手把手教你使用腾讯元宝定制属于自己的AI助手

在今天这个市场,竞争激烈的不得了,大家每天都必想的问题是啥?是“降本增效”,都在想把一个人当两个人用! 但老板有秘书,领导有员工,作为牛马的我呢?我左顾右盼之后发现背后空荡荡的…

大数据毕业设计选题推荐-重庆旅游景点数据分析系统-Python-Hive-Hadoop-Spark

✨作者主页:IT研究室✨ 个人简介:曾从事计算机专业培训教学,擅长Java、Python、微信小程序、Golang、安卓Android等项目实战。接项目定制开发、代码讲解、答辩教学、文档编写、降重等。 ☑文末获取源码☑ 精彩专栏推荐⬇⬇⬇ Java项目 Python…

JavaScript网页设计案例:互动式简历网站

JavaScript网页设计案例:互动式简历网站 在现代网页设计中,JavaScript 是实现交互和动态效果的关键技术。本文将通过一个完整的案例,展示如何使用 JavaScript 构建一个交互式的个人简历网页。本文不仅会涵盖 HTML 和 CSS 的使用,…

机器学习:探索未知边界,解锁智能潜力

欢迎来到 破晓的历程的 博客 ⛺️不负时光,不负己✈️ 在这个日新月异的科技时代,机器学习作为人工智能领域的核心驱动力,正以前所未有的速度改变着我们的世界。从智能家居的个性化推荐到自动驾驶汽车的精准导航,从医疗诊断的辅助…

【数据结构与算法】基本概念

数据结构与算法——绪论 文章目录 一.数据结构的研究内容1.1数值计算1.2非数值计算 二.基本概念和术语2.1数据,数据元素,数据项和数据对象2.2数据结构2.2.1逻辑结构2.2.2存储结构(物理结构)2.2.3运算和实现 三.抽象数据类型的表示…

安装管理K8S的开源项目KubeClipper介绍

安装管理K8S的开源项目KubeClipper介绍 1. 概述 KubeClipper是九州云开源的一个图形化界面 Kubernetes 多集群管理工具,旨在提供易使用、易运维、极轻量、生产级的 Kubernetes 多集群全生命周期管理服务。让运维工程师从繁复的配置和晦涩的命令行中解放出来&#…

VMware下的ubuntu显示文字太小的自适应显示调整

我的情况 我使用的是4K的32寸显示器,分辨率为 3840 x 2160,ubuntu版本为18.04,默认的情况下系统分辨率为 3466 x 1842。 ​ 此时,显示的文字很小,虽然可以看清,但也比较吃力,在VMware窗口…

深入探索机器学习中的目标分类算法

在当今数据驱动的世界中,机器学习(Machine Learning, ML)正逐渐成为解决问题的重要工具。在众多机器学习任务中,目标分类(Classification)算法尤其受到关注。本文将深入探讨目标分类算法的基本概念、常见类…

828华为云征文|部署开源超轻量中文OCR项目 TrWebOCR

828华为云征文|部署开源超轻量中文OCR项目 TrWebOCR 一、Flexus云服务器X实例介绍二、Flexus云服务器X实例配置2.1 重置密码2.2 服务器连接2.3 安全组配置2.4 Docker 环境搭建 三、Flexus云服务器X实例部署 TrWebOCR3.1 TrWebOCR 介绍3.2 TrWebOCR 部署3.3 TrWebOCR…

解压视频素材下载网站推荐

在制作抖音小说推文或其他短视频时,找到合适的解压视频素材非常重要。以下是几个推荐的网站,可以帮助你轻松下载高质量的解压视频素材: 蛙学网 蛙学网是国内顶尖的短视频素材网站,提供大量4K高清无水印的解压视频素材,…

C++:STL(四)之vector的基本介绍与使用方式|容器接口

✨ Blog’s 主页: 白乐天_ξ( ✿>◡❛) 🌈 个人Motto:他强任他强,清风拂山冈! 🔥 所属专栏:C深入学习笔记 💫 欢迎来到我的学习笔记! 一、C/C中的字符串 1.1. C语言中的…

【机器学习】——决策树以及随机森林

文章目录 1. 决策树的基本概念与结构1.1 决策树的构建过程 2. 决策树的划分标准2.1 信息增益(Information Gain)2.2 信息增益比(Information Gain Ratio)2.3 基尼指数(Gini Index)2.4 均方误差(…

极限基本类型小结

极限基本类型小结 在之前的文章中已经看过了极限的多种基本类型,下面展示一些各种基本类型的代表性的图像,通过观察下面的图像可以帮助我们回顾函数在趋近于某一点时函数值的行为(这也叫极限值),也生动的描述了各种极…

老古董Lisp实用主义入门教程(12):白日梦先生的白日梦

白日梦先生的白日梦 白日梦先生已经跟着大家一起学Lisp长达两个月零五天! 001 粗鲁先生Lisp再出发002 懒惰先生的Lisp开发流程003 颠倒先生的数学表达式004 完美先生的完美Lisp005 好奇先生用Lisp来探索Lisp006 好奇先生在Lisp的花园里挖呀挖呀挖007 挑剔先生给出…

关于工作虚拟组的一些思考

这是学习笔记的第 2493篇文章 因为各种工作协作,势必要打破组织边界,可能会存在各种形态的虚拟组。 近期沉淀了一些虚拟组的管理方式,在一定时间范围内也有了一些起色,所以在不断沉淀的过程中,也在不断思考。 这三个虚…

企业级版本管理工具(1)----Git

目录 1.Git是什么 2.Git的安装和使用 在Ubuntu下安装命令如下: 使用git --version查看已安装git的版本: 使用git init初始化仓库: 使用tree .git列出目录: 使用git config命令设置姓名和邮箱: 加入--global选项…

WPF MVVM入门系列教程(一、MVVM模式介绍)

前言 还记得早些年刚工作的那会,公司的产品从Delphi转成了WPF(再早些年是mfc)。当时大家也是处于一个对WPF探索的阶段,所以有很多概念都不是非常清楚。 但是大家都想堆技术,就提出使用MVVM,我那会是第一次…

想做个WPS的自动化代码,参考如下:

🏆本文收录于《全栈Bug调优(实战版)》专栏,主要记录项目实战过程中所遇到的Bug或因后果及提供真实有效的解决方案,希望能够助你一臂之力,帮你早日登顶实现财富自由🚀;同时,欢迎大家关注&&am…