机器学习:考试复习提纲

news2025/1/18 11:52:37

该页仅为复习资料,内含博客链接均通过搜索得到。
当然直接访问我的GitHub博客会更方便。

1. 线性回归 Linear Regression

https://www.cnblogs.com/geo-will/p/10468253.html

要求1:可以按照自己的理解简述线性回归问题。

回归分析是一种预测性的建模技术,它研究的是因变量(目标)和自变量(预测器)之间的关系。线性回归是回归问题中的一种,线性回归假设目标值与特征之间线性相关,即满足一个多元一次方程。通过构建损失函数,来求解损失函数最小时的参数w和b。

要求2:可以对简单数据进行计算(PPT中例题)。

最小二乘法与梯度计算

见网页

要求3: 可以编程实现线性回归算法。

见网页

2. 逻辑回归 Logistic Regression

https://www.cnblogs.com/geo-will/p/10468356.html

要求1:可以按照自己的理解简述逻辑回归问题以及与线性回归问题的区别与联系。

逻辑斯蒂回归(Logistic Regression) 虽然名字中有回归,但模型最初是为了解决二分类问题。

线性回归模型帮助我们用最简单的线性方程实现了对数据的拟合,但只实现了回归而无法进行分类。因此LR就是在线性回归的基础上,构造的一种分类模型。LR 通过一个联系函数,将预测值转化为离散值从而进行分类。对数几率引入了一个对数几率函数(logistic function),将预测值投影到 0-1 之间,从而将线性回归问题转化为二分类问题。

要求2:掌握梯度下降法、牛顿法的基本原理和迭代公式。

要求3:可以编程实现逻辑回归算法。

见网页

3. 决策树 Decision Tree

https://www.cnblogs.com/geo-will/p/9773621.html

要求1:可以按照自己的理解简述决策树算法。

简单而言,决策树是一个多层if-else函数,对对象属性进行多层if-else判断,获取目标属性的类别。由于只使用if-else对特征属性进行判断,所以一般特征属性为离散值,即使为连续值也会先进行区间离散化,如可以采用二分法(bi-partition)。

要求2:可以利用ID3,C4.5 和 CART算法对数据进行分类。

ID3 使用信息熵 Ent(D) 得到信息增益 Gain(D,a),衡量划分属性在这里插入图片描述在这里插入图片描述

C4.5 使用增益率 Gain_ratio(D,a),衡量划分属性
在这里插入图片描述

CART 使用基尼值 Gini(D) 得到 基尼指数 Gini_index(D,a),衡量划分属性
在这里插入图片描述
在这里插入图片描述

要求3:可以对生成的决策树进行剪枝处理。

预剪枝 与 后剪枝
在这里插入图片描述
在这里插入图片描述

4. 感知机 Perceptron —— 神经网络的组成单元

要求1:可以按照自己的理解简述感知机模型。

感知机(Perceptron) ,最简单的感知机是由两层神经元组成的一个简单模型。

感知机是一个接收多个输入信号,输出一个信号的简单模型。它是神经网络的组成单元。

它的输出层是M-P神经元,即输出层神经元进行激活函数处理,也称为阈值神经单元(threshold logic unit);也叫功能神经元。

输入层接受外界信号(样本属性)并传递给输出层(输入层的神经元个数等于样本的属性数目),而没有激活函数。

多层感知机还有一个层在输出层到输入层之间叫隐含层,隐含层类似于输出层,接收上一层的输出,通过激活函数将值传入下层。

在这里插入图片描述

要求2:可以利用感知机解决逻辑分类问题。(不是很懂)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5. 神经网络 Neural Networks

https://blog.csdn.net/qq_32865355/article/details/80260212

https://blog.csdn.net/RAO_OO/article/details/77234524

要求1:可以按照自己的理解简述神经网络模型,以及与感知机的关系。

神经网络是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所做的交互反应。神经网络中最基本的成分便是神经元(Neuron)模型,也就是上面说的适应性简单单元

感知机由两层神经元组成,是最简单形式的前馈式人工神经网络。

要求2:掌握BP算法的基本原理和迭代公式。

误差反向传播算法简称反向传播算法(即BP算法)。使用反向传播算法的多层感知器又称为BP神经网络。BP算法是一个迭代算法,它的基本思想为:(1)先计算每一层的状态和激活值,直到最后一层(即信号是前向传播的);(2)计算每一层的误差,误差的计算过程是从最后一层向前推进的(这就是反向传播算法名字的由来);(3)更新参数(目标是误差变小)。迭代前面两个步骤,直到满足停止准则(比如相邻两次迭代的误差的差别很小)。

6. 支持向量机 Support Vector Machine

https://zhuanlan.zhihu.com/p/77750026

https://zhuanlan.zhihu.com/p/65487578?from_voters_page=true

要求1:可以按照自己的理解简述支持向量机模型,以及与其他分类算法的区别。

支持向量机的基本思想是寻找两类样本之间最中间的超平面。支持向量机的目的是使划分平面对于样本的扰动容忍性好。

逻辑回归算法是基于全部样本的二分类器:考虑全部样本的平均似然性。

支持向量机算法是基于部分样本的二分类器:考虑部分靠近边界的支持向量。

要求2:掌握使用拉格朗日乘子法对约束优化问题进行求解,并理解使用拉格朗日乘子法求解SVM问题的原因。

拉格朗日乘子法是求解约束优化问题常用的方法之一,其基本思想是求解与之等价的无约束对偶问题

拉格朗日乘子加入到目标函数中,有两个作用

  • 将约束函数引入到目标函数中,转化为无约束问题,不满足约束条件的解会使得目标函数无穷大,故而无解
  • 引入拉格朗日乘子另一个最大的作用就是将约束条件与目标函数混在一起,使得我们可以同时计算目标函数的梯度与约束条件的梯度,根据相关的性质从而找到我们想找到的局部最优解或者全局最优解

例子求解: https://blog.csdn.net/on2way/article/details/47729419

要求3:可以按照自己的理解简述软间隔支持向量机,并分析其与常规支持向量机的关系与区别。

在实际应用中,完全线性可分的样本是很少的,如果遇到了不能够完全线性可分的样本,我们就有了软间隔,相比于硬间隔的苛刻条件,我们允许个别样本点出现在间隔带里面.

我们为每个样本引入一个松弛变量 ε,令 εi > 0 ,且:
在这里插入图片描述
在这里插入图片描述

和常规的 SVM 一样,软间隔只是多了个约束,SVM 和 软间隔SVM的对偶问题都有相同的目标函数。

特点:

  • 软间隔SVM可以对有outlier的数据分类。
  • 软间隔SVM对偶模型与SVM对偶模型非常相似,可以用相同算法求解。
  • 软间隔SVM模型可以看作是最小化hinge损失函数的正则化模型。
  • 当参数C趋向无穷大时,软间隔SVM退化成普通的SVM。

要求4: 了解SMO算法。

SMO(Sequential Minimal Optimization),序列最小优化算法,其核心思想非常简单:每次只优化一个参数,其他参数先固定住,仅求当前这个优化参数的极值。

7. 主成分分析 Principle Component Analysis

https://blog.csdn.net/zhongkelee/article/details/44064401

要求1:可以按照自己的理解简述主成分分析算法。

当信息维度过多时,对每个指标进行分析往往是孤立的,不是综合的,盲目的减少指标也会损失很多信息,因此我们需要在减少分析指标的同时,还要尽量减少指标包含的信息损失,达到对数据的全面分析。主成分分析 PCA 便是这样一种方法。PCA的思想是将n维特征映射到 k 维上(k < n),这k维是全新的正交特征。我们称之为主成分,是重新构造出来的k维特征,而不是简单地从n维特征中去除其余n-k维特征,它包含了与去除的特征之间的关系。

要求2:可以简述PCA算法的流程。

整个PCA过程貌似及其简单,就是求协方差的特征值和特征向量,然后做数据转换。

网页例子 (1 2 3 45): https://blog.csdn.net/zhongkelee/article/details/44064401

  • Step 1: 中心化 计算均值差
  • Step 2: 计算协方差矩阵 n*n cov 𝑪 = 𝐜𝐨𝐯 𝑨 = 𝑨𝑨𝐓
  • Step 3: 特征值分解
  • Step 4: 投影、降维

要求3:核化PCA与PCA的相同与不同。

PCA是利用特征的协方差矩阵判断变量间的方差一致性,寻找出变量之间的最佳的线性组合,来代替特征,从而达到降维的目的。

KPCA利用核化的思想,将样本的空间映射到更高维度的空间,再利用这个更高的维度空间进行线性降维。

对于 KPCA 如果样本的维度是k,样本个数是n(n>k),那么首先需要将样本投射到n维空间,这个n维空间是这样计算的:首先计算n个样本间的距离矩阵D(n*n),核函数F,则F(D)就是他的高维空间投射。

核函数还不是很懂。

8. 线性判别分析 Linear Discriminant Analysis

https://www.cnblogs.com/pinard/p/6244265.html

要求1:可以按照自己的理解简述线性判别分析算法,并分析其与PCA之间的联系与区别。

线性鉴别分析的基本思想是将高维的模式样本投影到最佳鉴别矢量空间,以达到抽取分类信息和压缩特征空间维数的效果,投影后保证模式样本在新的子空间有最大的类间距离和最小的类内距离,即模式在该空间中有最佳的可分离性。因此,它是一种有效的特征抽取方法。使用这种方法能够使投影后模式样本的类间散布矩阵最大,并且同时类内散布矩阵最小。就是说,它能够保证投影后模式样本在新的空间中有最小的类内距离和最大的类间距离,即模式在该空间中有最佳的可分离性。

LDA是一种监督学习的降维技术,也就是说它的数据集的每个样本是有类别输出的。这点和PCA不同。PCA是不考虑样本类别输出的无监督降维技术。

比较:

  • 思想上:

    • PCA旨在寻找一组子坐标系(定义一个子空间)使得样本点的方差最大,即信息量保留越多。
    • LDA旨在寻找一组子坐标系(定义一个子空间)使得样本点类内散度小,类间散度大(Fisher Criteria)。
  • 监督性:

    • PCA是无监督学习方法
    • LDA是有监督学习方法
  • 算法效率

    • PCA效率更胜一筹
  • 子空间学习(Subspace Learning)角度:

    • PCA与LDA都属于线性子空间学习算法(Linear Subspace Learning)。
    • 目标都是学习一个投影矩阵𝑊 = [𝒘1, ⋯ , 𝒘𝑚],使得样本在新坐标系上的表示具有相应特性(PCA——样本方差最大,LDA——同类样本高聚合度,不同类样本高扩散度)。
    • 在样本空间定义一个新的子坐标系(即子空间),其每个列向量定义一个坐标轴,故此类算法均称为子空间学习算法。
  • 降维(Dimension Reduction)角度:

    • 坐标轴数目少,维度也少了
  • 特征提取(Feature Extraction)角度:

    • 样本在新坐标系下的坐标相当于样本的新特征(Feature,or Representation)

要求2:可以简述LDA算法的流程。

在这里插入图片描述

9. K-均值聚类 K-means Clustering

https://www.cnblogs.com/pinard/p/6164214.html
https://www.cnblogs.com/zhxuxu/p/9860654.html

要求1:可以按照自己的理解简述K-means算法。

K-Means算法的思想很简单,对于给定的样本集,按照样本之间的欧式距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离(簇中心的距离)尽量的大。

要求2:可以简述Lloyd算法的流程。

  • Lloyd’s algorithm 过程:
    • (1)首先在数据集中随机选定k个初始点
    • (2) 计算k个站点的Voronoi图。
    • (3)整合Voronoi图的每个单元格,并计算质心
    • (4)然后将每个站点(k)移动到其Voronoi单元的质心。
    • Lloyd’s的输入是一个连续的几何区域,而不是一组离散的点。

在这里插入图片描述

而可以用Lloyd算法来启发式的求解 K-means
在这里插入图片描述

  • 原K-Means算法过程:
    • (1)随机初始化k个聚类中心的位置
    • (2)计算每一个点到聚类中心的距离,选取最小值分配给k(i)
    • (3)移动聚类中心(其实就是对所属它的样本点求平均值,就是它移动是位置)
    • (4)重复(2),(3)直到损失函数(也就是所有样本点到其所归属的样本中心的距离的和最小)

原 K-means 算法是选取距离最小的样本点作为中心,而 Lloyd 来求解则为每次将质点作为新中心。

在 K-Means 聚类时,每个聚类簇的质心是隐含数据。假设 K 个初始化质心,即 EM 算法的 E 步;然后计算得到每个样本最近的质心,并把样本聚类到最近的这个质心,即 EM 算法的 M 步。重复这个 E 步和 M 步,直到质心不再变化为止,这样就完成了 K-Means 聚类。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1608376.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

【FreeRTOS】RTOS任务的同步与互斥:(二)信号量

【FreeRTOS】RTOS任务的同步与互斥&#xff1a;&#xff08;二&#xff09;信号量 信号量概念二值信号量二值信号量概念二值信号量相关API函数二值信号量的案例设计cubeMX配置软件程序设计 计数型信号量计数型信号量概念计数型信号量相关API函数二值信号量的案例设计cubeMX配置…

线程池 ThreadPoolExecutor 配置参数详解

《开发语言-Java》 线程池 ThreadPoolExecutor 参数详解 一、引言二、主要内容2.1 核心构造函数2.2 核心线程数2.3 最大线程数2.4 空闲线程存活时间2.5 keepAliveTime 的时间单位2.6 核心线程在空闲时的回收策略2.7 工作队列2.8 线程工厂2.9 拒绝策略 三、总结 一、引言 提到 …

VOJ 网页跳转 题解 STL栈

网页跳转 用例输入 10 VISIT https://www.jisuanke.com/course/476 VISIT https://www.taobao.com/ BACK BACK FORWARD FORWARD BACK VISIT https://www.jisuanke.com/course/429 FORWARD BACK用例输出 https://www.jisuanke.com/course/476 https://www.taobao.com/ https…

JavaEE进阶:基础知识

JavaEE&#xff1a;Java企业开发 Web网站的工作流程 ⽬前用户对PC端应⽤的开发结构模式主要分为C/S和B/S结构. CS即Client/Server&#xff08;客户机/服务器&#xff09;结构. 常⻅的C/S架构的应⽤⽐如QQ&#xff0c;CCTALK&#xff0c;各种⽹络游戏 等等&#xff0c;⼀般需…

吴恩达机器学习理论基础—逻辑回归模型

吴恩达机器学习理论基础—逻辑回归模型 说明&#xff1a;逻辑回归解决的是分类问题&#xff1a;例如常见的二分类问题。即得到的输出结果只有两个值的信息。 逻辑回归概念基础 逻辑回归用来解决数据集为0和1的二分类的问题 使用逻辑回归模型来解决对应的问题则需要使用一个函…

在 Ubuntu 12.10 安装 wxPython

安装 wxPython 可以使用 pip 工具&#xff0c;但在 Ubuntu 12.10 上需要首先安装 wxPython 的依赖项。请注意&#xff0c;Ubuntu 12.10 已于2013年终止支持&#xff0c;建议升级到更高版本的 Ubuntu。以下是在 Ubuntu 12.10 上安装 wxPython 的一般步骤&#xff1a; 一、问题背…

【创建型模式】工厂方法模式

一、简单工厂模式 1.1 简单工厂模式概述 简单工厂模式又叫做静态工厂方法模式。 目的&#xff1a;定义一个用于创建对象的接口。实质&#xff1a;由一个工厂类根据传入的参数&#xff0c;动态决定应该创建哪一个产品类(这些产品类继承自一个父类或接口)的实例。 简单工厂模式…

011、Python+fastapi,第一个后台管理项目走向第11步:建立python+fastapi项目,简单测试一下

一、说明 本文章就是记录自己的学习过程&#xff0c;如果有用您可以参考&#xff0c;没用你就略过&#xff0c;没有好与不好之分&#xff0c;今天主要是参考了gitee上的一些项目&#xff0c;一步一步的往后i建立 对于学习来说&#xff0c;如果您有java c等经验&#xff0c;py…

注意力机制基本思想(二)(自注意力机制)

​&#x1f308; 个人主页&#xff1a;十二月的猫-CSDN博客 &#x1f525; 系列专栏&#xff1a; &#x1f3c0;《深度学习基础知识》 相关专栏&#xff1a; ⚽《机器学习基础知识》 &#x1f3d0;《机器学习项目实战》 &#x1f94e;《深度学习项目实…

河北专升本(c语言各种编程题)

目录 第一类、递归调用 第二类、特殊数字 第三类、多维数组 第四类、字符处理 第五类、数学问题 第六类、排序算法 第七类、循环问题 第八类、进制转换 第九类、实际应用 第十类、图形输出 第一类、递归调用 1.汉诺塔&#xff1a;请输入盘子数&#xff0c;输出盘子移动…

JVM 性能调优命令(jps,jinfo,jstat,jstack,jmap)

常用命令&#xff1a;jps、jinfo、jstat、jstack、jmap jps jps查看java进程及相关信息 jps -l 输出jar包路径&#xff0c;类全名 jps -m 输出main参数 jps -v 输出JVM参数jps命令示例 显示本机的Java虚拟机进程&#xff1a; # jps 15729 jar 92153 Jps 90267 Jstat显示主类…

【QT进阶】Qt Web混合编程之html、 js的简单交互

往期回顾 【QT进阶】Qt Web混合编程之VS2019 CEF的编译与使用&#xff08;图文并茂超详细介绍&#xff09;-CSDN博客【QT进阶】Qt Web混合编程之QWebEngineView基本用法-CSDN博客【QT进阶】Qt Web混合编程之CMake VS2019编译并使用QCefView&#xff08;图文并茂超详细版本&…

Mamba论文笔记

Mamba论文 结合序列建模任务通俗地解释什么是状态空间模型&#xff1f;创新点和贡献 为什么Mamba模型擅长捕获long range dependencies&#xff1f; 结合序列建模任务通俗地解释什么是状态空间模型&#xff1f; 状态空间模型&#xff08;State Space Model, SSM&#xff09;是…

css设置文字撑满盒子

效果如上&#xff1a; <div style"width: 250px;background-color:red;text-align-last:justify;word-break: keep-all;">为中国崛起而读书</div>

Git常见命令行操作和IDEA图形化界面操作

设置Git用户名和标签 在安装完Git以后需要设置用户和签名&#xff0c;至于为什么要设置用户签名可以看一下这篇文章【学了就忘】Git基础 — 11.配置Git用户签名说明 - 简书 (jianshu.com) 基本语法&#xff1a; git config --global user.name 用户名 git config --global u…

漳州不饱和聚酯树脂首次出口非洲

我可以确认&#xff0c;2024年4月中旬左右&#xff0c;漳州新阳科技有限公司制造的不饱和聚酯树脂产品首次出口至非洲市场。这批树脂共计167.2吨&#xff0c;经过漳州市古雷海关的监管放行后&#xff0c;被运往非洲国家阿尔及利亚和莫桑比克。这一举动标志着漳州企业在拓展国际…

深度学习基础之《TensorFlow框架(12)—图片数据》

一、图像基本知识 1、如何转换图片文件 回忆&#xff1a;之前我们在特征抽取中讲过如何将文本处理成数据 思考&#xff1a;如何将图片文件转换成机器学习算法能够处理的数据&#xff1f; 我们经常接触到的图片有两种&#xff0c;一种是黑白图片&#xff08;灰度图&#xff09;…

element-ui form表单自定义label的样式、内容

element-ui form表单自定义label的样式、内容 效果截图 代码 <el-form size"small" :inline"true" label-width"120px"><el-form-item prop"name"><div slot"label"><i style"color: red;"…

数据结构·一篇搞定顺序表!

大家好啊&#xff0c;几日不见&#xff0c;甚是想念&#xff0c;从这一篇文章开始&#xff0c;我们就要进入数据结构了哦&#xff0c;那么我们废话不多说&#xff0c;今天我们一起来搞定顺序表&#xff01;&#xff01;&#xff01; 1. 顺序表概念及结构 顺序表是一种线性结…

自定义数据 微调CLIP (结合paper)

CLIP 是 Contrastive Language-Image Pre-training 的缩写&#xff0c;是一个擅长理解文本和图像之间关系的模型&#xff0c;下面是一个简单的介绍&#xff1a; 优点&#xff1a; CLIP 在零样本学习方面特别强大&#xff0c;它可以&#xff08;用自然语言&#xff09;给出图像…