我的模型层采用 relu激活函数。 我正在使用 he_uniform作为内核初始化器,但我发现 kaiming初始化比he_uniform表现更好 。我正在使用keras,并且keras没有kaiming初始化器,如何实现它?
命名方式的混淆源于使用姓氏或名字作为命名区别。基本上,该论文是由Kaiming He共同提出的初始化方法。然而,框架实现有所不同;Tensorflow通过Keras后端使用名称为He的初始化方法。Torch使用Kaiming作为方法名称。事实上,相同的情况也适用于Glorot/Xavier初始化。请参阅由Xavier Glorot共同撰写的论文。在这里,Tensorflow通过Keras使用姓氏Glorot,而Torch使用名字Xavier。