对于神经网络,每个层中有n个神经元。因此,如果您将每个神经元的权重初始化为0,那么在反向传播后,它们每个人将具有相同的权重: 第一层中的神经元a1和a2将具有相同的权重,无论迭代多长时间。因为它们计算的是相同的函数。 而逻辑回归不是这种情况,它只是y = Wx + b。
我认为上面的答案有些误导。实际上,在逻辑回归中始终使用的是Sigmoid函数,也称为Logit函数,因为它具有特殊的属性。 例如, (对于丑陋的公式表示我感到抱歉)。它对应的函数如下所示: 因此,零确保值始终在线性区域上,使传播更加容易。
如果所有的权重都初始化为0,反向传播将不能按预期工作,因为中间神经元和起始神经元的梯度会消失(变成0),而且不会再更新。原因是,在神经网络的反向传递过程中,某个中间神经元的梯度会乘以从该神经元到下一层神经元的输出边上的权重,这个权重为0,因此该中间节点的梯度也为0。随后所有的权重都不会得到改善,模型最终只能纠正与输出神经元直接连接的权重。