14得票2回答
在LSTM之前或之后使用Dropout层。有什么区别?

假设我们有一个用于时间序列预测的LSTM模型。此外,这是一个多变量情况,因此我们使用多个特征来训练模型。 ipt = Input(shape = (shape[0], shape[1]) x = Dropout(0.3)(ipt) ## Dropout before LSTM. ...

99得票2回答
Keras:LSTM dropout和LSTM循环dropout的区别

来自Keras文档: dropout: 0到1之间的浮点数,表示输入线性变换中要丢弃的单元的比例。 recurrent_dropout: 0到1之间的浮点数,表示循环状态的线性变换中要丢弃的单元的比例。 有人能指出以下图片中每个丢弃操作发生的位置吗?

46得票2回答
如何理解SpatialDropout1D以及何时使用它?

偶尔我会看到一些模型使用 SpatialDropout1D 而不是 Dropout。例如,在词性标注神经网络中,他们使用:model = Sequential() model.add(Embedding(s_vocabsize, EMBED_SIZE, ...

29得票3回答
PyTorch - 如何在评估模式下关闭Dropout

这是我定义的模型,它是一个简单的LSTM,包含2个全连接层。import copy import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim class myl...

8得票1回答
在神经网络中,如何添加dropout层?

我看到关于神经网络中不同部分的dropout的描述: 在权重矩阵中使用dropout, 在矩阵乘法之后、relu之前的隐藏层中使用dropout, 在relu之后的隐藏层中使用dropout, 以及在softmax函数之前输出得分时使用dropout。 我有点困惑应该在哪里执行drop...

9得票1回答
Tensorflow LSTM Dropout 实现

当调用tf.nn.rnn_cell.DropoutWrapper()时,tensorflow如何具体应用dropout? 我看到的所有关于将dropout应用于rnn的文章都引用了Zaremba et. al的论文,其中提到不要在循环连接之间应用dropout。神经元应该在LSTM层之前...

67得票3回答
Pytorch:nn.Dropout 与 F.dropout 的区别

执行dropout的方法有两种: torch.nn.Dropout torch.nn.functional.Dropout 我想问: 它们之间有区别吗? 在什么情况下应该使用其中一种而不是另一种? 当我切换它们时,我没有看到任何性能差异。

8得票1回答
SpatialDropout2D、BatchNormalization和激活函数的正确顺序是什么?

对于CNN架构,我想使用SpatialDropout2D层代替Dropout层。此外,我想使用BatchNormalization。到目前为止,我总是在激活函数之前直接在卷积层后设置BatchNormalization,就像Ioffe和Szegedy提到的论文中一样。而且,我总是在MaxPoo...

9得票2回答
model.eval() 和 model.train() 在 PyTorch 中影响哪些模块?

model.eval() 方法会修改某些模块(层),这些模块在训练和推理时具有不同的行为。其中一些模块(层)在文档中列出了部分示例,例如:Dropout、BatchNorm等等。请参考特定模块的文档以了解它们在训练/推理模式下的行为是否会受到影响。 是否有哪些模块会受到影响的详尽列表?

8得票2回答
Keras 带有 noise_shape 的 Dropout

我有一个关于Keras函数Dropout和参数noise_shape的问题。 问题1: 如果您的输入具有形状(batch_size,timesteps,features),并且希望dropout掩码在所有时间步骤中都相同,则可以使用noise_shape=(batch_size,1,fea...