本文重点
上一节课程中,我们学习了m个样本的前向传播的向量化,我们可以同时完成m个样本的前向传播,也就是m个样本z的计算,然后a的计算。本节课程我们将学习dw和db参数更新的向量化,最终得到整个逻辑回归算法的参数更新的向量化表示。
非向量化的逻辑回归梯度下降算法
如图所示,我们已经完成了m个样本从x到z,然后到a的计算,下面我们的任务是将dw和db的计算也通过向量化的形式完成。
dz
要想计算dw和db,我们先来向量化计算dz,为了计算dZ,我们需要这样的一个行向量y(所有样本的标签):
这样我们就可以通过向量化的方式来计算出dZ:
dz计算出来之后,我们看一下,如何才能向量化的方式计算出dw(dw1,dw2...),db