我经常读到,前馈神经网络和循环神经网络(RNN)之间存在根本差异,这是因为前馈网络缺乏内部状态和因此短期记忆。这乍一看似乎是有道理的。
然而,当使用时间反向传播算法学习循环神经网络时,如果我理解正确,循环网络被转化为等效的前馈网络。
这意味着实际上没有根本性的区别。为什么RNN在某些任务(图像识别、时间序列预测等)中表现更好,而深度前馈网络不行呢?
然而,当使用时间反向传播算法学习循环神经网络时,如果我理解正确,循环网络被转化为等效的前馈网络。
这意味着实际上没有根本性的区别。为什么RNN在某些任务(图像识别、时间序列预测等)中表现更好,而深度前馈网络不行呢?