1.(Generalized) Linear classifiers——广义线性分类器
1.1 模型
假如有两类数据,类别标签为y = 1和y = -1
我们可以使用一个线性函数将其分类,二维形式
通常x增加一个恒等于1的维度,可以将b合并进w,于是更一般的形式为
,就相当于b
输出分类标签
1.2 几何意义
对于,其法向量为,单位化
对于平面上的一个数据点的向量来说,可以被分解为如下
其中表示向量x在决策函数上的投影向量,γ表示x到决策边界的距离,那么就表示x垂直决策边界的向量
由点到面的距离公式可得,x到决策函数的距离
变形得
决策函数的正负了反映数据点的类别,而且其大小也反映了数据点到决策边界距离
2.Fisher’s linear discriminant——Fisher’s 线性判别
1.Fisher’s 线性判别的原理
Fisher’s 线性判别通过降维的方式进行两类别分离,将高纬度的数据在低纬度上进行投影。投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,也就是“类内小,类间大”。
例有两类数据“x”"o",二维的数据降维就是投影到一条直线上
选取不同的投影轴,会产生不同的效果,很明显第一张图效果就比第二张图好,所以只需要找到一个满足需求的W向量就能实现分类任务。
2.Fisher’s 线性判别的推导
假设投影到w向量上,同时限定|w|=1,拥有两个特征的数据点向量投影到向量w上等于(w相当于一个新的坐标轴,通过投影在w轴上的获得的值)
证明:
在w上的投影长度为y=
于是我们可以建立
通过1.可知,数据点会分布在w上的不同位置,通过设定一个阈值完成分类
假设我们有两个类别和,分别有和个数据
可以计算出两类数据的均值,通过均值的差距来表现类间的差距
,
同样可以计算出两类数据的方差,通过方差来表现类内的差距
根据“类内小,类间大”的思想,我们可以建立如下目标函数
,与类间均值成正比,类内方差成反比
令,表示类间协方差矩阵
令,表示类内协方差矩阵
可以得到
这个就是损失函数,目标是求最大值
对w求偏导 有
假设数据点有p维
最终我们可以得到