本文主要介绍了逻辑回归的原理和应用,包括从线性回归到逻辑回归的转换、二元逻辑回归的模型和损失函数、优化方法以及正则化等内容。以下是内容的详细叙述:
1. 从线性回归到逻辑回归
线性回归模型:线性回归是找出输出特征向量Y与输入样本矩阵X之间的线性关系系数
θ,满足,此时Y是连续的,属于回归模型。
*转换为分类模型:如果想要Y是离散的,可以通过对Y进行函数转换,如g(Y)。根据g(Y)的值在不同的实数区间内分配类别A或B,从而得到一个分类模型。当结果类别只有两种时,即为二元分类模型。
2. 二元逻辑回归的模型
sigmoid函数:在逻辑回归中,常用的转换函数是sigmoid函数,形式为。该函数具有很好的性质,当z趋于正无穷时,g(z)趋于1;当z趋于负无穷时,g(z)趋于0。
概率分布函数:假设样本输出为0或1两类,逻辑回归模型定义
3. 二元逻辑回归的损失函数
最大似然法:逻辑回归的损失函数通过最大似然法推导出来,用于描述样本输出的概率分布。
损失函数表达式:
L1和L2正则化:为了防止过拟合,可以加入L1或L2正则化项,分别对应于$\theta$的L1范数和L2范数。
4. 二元逻辑回归的优化方法
梯度下降法:使用梯度下降法来最小化损失函数。迭代公式为:
矩阵表示:损失函数也可以写成矩阵形式,便于计算。
5. 多元逻辑回归
推广到多元:二元逻辑回归可以推广到多元逻辑回归,处理多个类别的情况。常用的方法有one-vs-rest (OvR) 和 many-vs-many (MvM)。
softmax回归:在多元逻辑回归中,可以使用softmax回归作为特例,通过计算每个类别的对数几率来进行分类。
总之,逻辑回归是一个强大的分类算法,适用于二元和多元分类问题。通过理解其原理和优化方法,可以有效地应用于各种机器学习任务中。