我找不到任何关于梯度上升的资料。有没有好的链接可以演示梯度上升与梯度下降的区别。
我找不到任何关于梯度上升的资料。有没有好的链接可以演示梯度上升与梯度下降的区别。
并没有什么不同。梯度上升只是最大化损失函数,而不是最小化它的过程。其他所有内容完全相同。对于某些损失函数来说,上升就像是在该损失函数的负数上进行梯度下降。
其中,“phi”只是Sigmoid函数
现在,你想要一个凸函数来进行梯度上升,因此取对数:
对于对数似然,您可以按以下方式导出并应用梯度上升:
由于您希望同时更新所有权重,因此让我们将其编写为
梯度下降法用于最小化特定函数,而梯度上升法用于最大化函数。
梯度上升是为了更好的优化而最大化函数,在强化学习中使用。它给出了上升斜率或增加的图形。
梯度下降是为了最小化代价函数,在线性回归中使用。它提供了代价函数的下降或减少的斜率。
Gradient是斜率的另一个词。在点(x,y)处的图形的正梯度意味着图形在点(x,y)处向上倾斜。另一方面,在点(x,y)处的图形的负梯度意味着图形在点(x,y)处向下倾斜。
梯度下降是一种迭代算法,用于找到最小化成本函数值的一组theta。因此,梯度上升将产生一组theta,其最大化成本函数的值。