使用梯度下降算法在线性回归中有什么好处?看起来我们可以通过解析方法解决问题(找到使代价函数最小的theta0-n),那为什么我们仍然想使用梯度下降算法做同样的事情呢?谢谢
使用梯度下降算法在线性回归中有什么好处?看起来我们可以通过解析方法解决问题(找到使代价函数最小的theta0-n),那为什么我们仍然想使用梯度下降算法做同样的事情呢?谢谢
您应该更详细地介绍您的问题——您到底在问什么——我们是在谈论一维还是多维线性回归?是简单的还是广义的?
总的来说,人们为什么要使用GD(梯度下降)呢?
那么分析解呢?嗯,我们确实使用它们,如果我们是在一般情况下讨论的话,你的说法就是错误的。例如OLS方法是一种封闭形式、分析解,被广泛使用。如果您可以使用分析解,并且计算上是可行的(因为有时候GD比较便宜或者更快),那么您可以甚至应该使用分析解。
但这总是有一些利弊的权衡——分析解与模型密切相关,因此如果您打算将模型推广/更改,实现它们可能效率低下。他们有时不如数字近似值高效,有时它们也更难实现。如果以上都不是问题——您应该使用分析解,人们真的这样做。
总之,如果您考虑对模型进行更改,泛化,添加一些更复杂的项/正则化/修改,则最好使用GD而不是解析解决方案;如果您需要一种通用方法,因为您不了解代码和模型的未来(您只是开发人员之一);如果解析解法在计算上更昂贵,并且您需要效率;如果解析解决方案需要更多内存,而您没有;如果解析解法难以实现,则使用简单的代码。请保留HTML标签。