卷积神经网络(CNN)是前馈模型还是反向传播模型?我通过比较DR.Yann的博客和维基百科对CNN的定义而感到困惑。
卷积神经网络是一种结构化的神经网络,前几层连接稀疏,以处理信息(通常是视觉信息)。
前馈神经网络被定义为其中不包含循环的网络。如果有循环,则为递归神经网络。例如,想象一个三层网络,其中第一层是输入层,第三层是输出层。前馈网络的结构是:第一层接收输入,将其传递给第二层,第二层再传递到第三层进行输出。递归神经网络会在第一层接收输入后,将其传递到第二层,但第二层可能同时将其传递到第一层和第三层。由于“低层”将其输出传递给“高层”,因此在神经网络内部创建了一个循环。
然而,反向传播是神经网络训练的方法。它与网络的结构无关,而是涉及如何更新输入权重。
在训练前馈网络时,信息被传入网络,得到分类结果后与已知的训练样本进行比较。如果网络的分类错误,则通过沿正确分类方向向后调整权重。这就是训练中的反向传播部分。
因此,CNN是一种前馈网络,但是通过反向传播进行训练。
类似于tswei的回答,但可能更简明。
卷积神经网络是一种前馈神经网络架构,它使用多组权重(滤波器)在输入空间上“滑动”或卷积,以分析距离像素关系而不是各个节点的激活。
反向传播是一种通过将误差从输出层向输入层(包括隐藏层)“反向传播”来训练神经网络的方法。