11得票1回答
为什么ReLU是一种非线性激活函数?

据我所知,在深度神经网络中,我们在应用权重(w)和偏置(b)(z:= w * X + b | a:= g(z))后使用激活函数(g)。因此,存在一个由(g o z)组成的复合函数,并且激活函数使我们的模型可以学习非线性函数。我知道Sigmoid和Tanh激活函数使我们的模型非线性,但我有些困惑...

9得票2回答
如何在Keras中使用不同的激活函数来构建一个神经网络层?

我正在使用Python中的Keras工作,我有一个神经网络(请参见下面的代码)。 目前它只能使用ReLu激活函数。 出于实验目的,我想在一些神经元上使用ReLu,另一些神经元上使用Softmax(或其他激活函数)。例如,在拥有20个神经元的图层中,我想有10个神经元使用ReLu,10个神经元...

9得票2回答
如何在Python中实现Leaky Relu函数的导数?

我该如何在不使用Tensorflow的情况下实现Leaky ReLU的导数呢? 除了以下方法,是否有更好的方式?我想让函数返回一个numpy数组。 def dlrelu(x, alpha=.01): # return alpha if x < 0 else 1 ...

8得票5回答
如何使用NumPy函数实现Leaky ReLU

我正在尝试实现Leaky ReLU,问题是我必须对一个四维数组的输入执行4个for循环。 是否有一种方法可以仅使用Numpy函数来实现Leaky ReLU?

8得票4回答
Keras如何在Relu激活函数中使用max_value?

在keras/activation.py中定义的Relu函数是: def relu(x, alpha=0., max_value=None): return K.relu(x, alpha=alpha, max_value=max_value) 它有一个max_val...

8得票1回答
SpatialDropout2D、BatchNormalization和激活函数的正确顺序是什么?

对于CNN架构,我想使用SpatialDropout2D层代替Dropout层。此外,我想使用BatchNormalization。到目前为止,我总是在激活函数之前直接在卷积层后设置BatchNormalization,就像Ioffe和Szegedy提到的论文中一样。而且,我总是在MaxPoo...

7得票2回答
具有负奖励的强化学习激活函数

我有一个关于在正负奖励同时存在的环境下适当使用激活函数的问题。 在强化学习中,我相信我们的输出应该是所有可能动作的期望奖励。由于某些选择具有负奖励,我们希望输出范围包括负数。 这会让我认为,唯一适合的激活函数要么是线性的,要么是tanh。然而,在许多强化学习论文中,我看到了Relu的使用。...

7得票1回答
如何在Keras层中使用softmax激活函数时指定轴?

Keras中softmax激活函数的文档说明了可以指定应用该激活函数的轴。我的模型应输出一个n行k列的矩阵M,其中Mij是第i个字母为符号j的概率。 n = 7 # number of symbols in the ouput string (fixed) k = len("01234567...

7得票1回答
PyTorch中的`inplace=True`激活函数是否只在推理模式下有意义?

根据在PyTorch论坛上的讨论: nn.ReLU()和nn.ReLU(inplace=True)有什么区别? 何时以及为什么应该设置inplace = True? inplace=True的目的是在不为此操作结果分配额外张量的情况下,原地(in place)修改输入。 这样可以更有...

7得票4回答
为什么几乎每个神经网络中的激活函数都会在负输入值处饱和

这可能是一个非常基础/琐碎的问题。 对于负输入, ReLu激活函数的输出为零 Sigmoid激活函数的输出为零 Tanh激活函数的输出为-1 以下是我的问题: 为什么所有上述激活函数都饱和在负输入值上。 如果我们想预测一个负目标值,是否有任何激活功能。 谢谢。