介绍
逻辑回归是一种广义上的线性回归模型,简单来看就是将线性回归的结果
Sigmoid函数:
推导模型公式
模型公式
⚠️ 注意:
是预测的类别, 是真实的类别, 视作概率值(这个模型就是这样设计的), 是这个模型的 参数(实际上和线性回归的参数一样)
推导损失函数
条件概率表示
首先写出模型的条件概率表示(在给定样本
给定输入样本
同样,预测类别为
令
给定输入样本
同样,预测类别为
最大似然函数
这里实际上将sigmoid输出当做概率,我们目标追求 正确分类的概率
使用最大似然估计来求使
©️ 符号说明:
: 样本数量 : 为样本特征纬度 : 单个样本的特征,是一个行向量 : 每个样本特征组成的矩阵,形状为 : 第 个样本的特征 : 单个样本的类别标签 : 样本类别组成的向量,形状为 : 第 个样本的真实类别
改写最大似然函数
将
当
这其实是为什么要定义正类编码为
然后就可以得到下面这种形式:
对数似然函数
为了计算方便,在上式两边取对数:
最大化对数似然
损失函数
得到 对数似然
我们知道求解一个模型是需要将模型的损失函数最小化,但是现在我们需要最大化对数似然,所以将对数似然
故损失函数为:
📝 备注:
在逻辑回归的损失函数中,我们希望对所有训练样本的损失进行求和,然后再通过
梯度下降求解
先计算一些后面会用到的结果:
- sigmoid函数的导数:
- 1 - sigmoid函数的导数:
- 对数 sigmoid函数的导数:
- 对数 1 - sigmoid函数的导数:
一通算后,终于可以开始计算损失函数的导数:
中间计算详细过程:
: :
: :
迭代更新公式
梯度下降更新公式: