有没有针对前馈神经网络的训练算法的实现(或直接描述),不使用sigmoid或线性压缩函数,而是使用非可微的函数,例如heaviside函数?
我已经找到了一篇关于这种算法的论文, 但没有相应的实现,这让我感到困惑,因为在我看来,应该有相关内容。
有什么提示吗?
有没有针对前馈神经网络的训练算法的实现(或直接描述),不使用sigmoid或线性压缩函数,而是使用非可微的函数,例如heaviside函数?
我已经找到了一篇关于这种算法的论文, 但没有相应的实现,这让我感到困惑,因为在我看来,应该有相关内容。
有什么提示吗?
反向传播算法不能使用重载函数,因为它的导数在所有定义域内都为零,除了零点,在那里它是无限的。也就是说,重载函数的导数是Dirac delta。
这意味着除了零以外的任何值都不会发生变化,也没有进展。在零点,导数是无限的,所以步骤也是不可管理的。
您可以在网络上找到Java中此函数的实现,但我仍然认为使用它不是一个好主意。如果您增加Sigmoid函数中的Gamma值,它将成为重载函数的非常合理的近似,并带有可区分性的额外优势。
检查此论文是否有任何可能对您有帮助的信息。