根据你的图表,每行实际上是一层。但正如@beaker所说,这不是可视化神经网络的最佳方式。
从此处获取的一张图片可以帮助大家更清楚地了解。
“层”是一个通用术语,适用于在神经网络特定深度内共同操作的“节点”集合。
输入层 包含原始数据(您可以将每个变量视为“节点”)。
隐藏层 是神经网络中发生黑魔法的地方。每层都试图通过最小化错误/成本函数来学习有关数据的不同方面。 最直观的理解这些层的方法是在“图像识别”(例如脸部)的上下文中。 第一层可能会学习边缘检测,第二层可能会检测眼睛,第三层则检测鼻子等。虽然实际情况并非如此,但其思想是将问题分解成不同级别的组件,以便不同抽象级别的组件可以像我们自己的大脑一样拼合在一起(因此被称为“神经网络”)。
输出层 最简单,通常对于分类问题只包含一个输出。虽然它是一个单独的“节点”,但仍被认为是神经网络中的一层,因为它可能包含多个节点。
Goodfellow在他的书"深度学习"中定义网络是由每个函数层组成的函数组合:
然而,从原始问题来看,我不认为可以被向量化的事物(乘法和添加偏置)应该被视为单独的层,尽管ReLU或其他激活函数通常被视为层,这也符合Goodfellow的定义。