99得票2回答
Keras:LSTM dropout和LSTM循环dropout的区别

来自Keras文档: dropout: 0到1之间的浮点数,表示输入线性变换中要丢弃的单元的比例。 recurrent_dropout: 0到1之间的浮点数,表示循环状态的线性变换中要丢弃的单元的比例。 有人能指出以下图片中每个丢弃操作发生的位置吗?

67得票3回答
Pytorch:nn.Dropout 与 F.dropout 的区别

执行dropout的方法有两种: torch.nn.Dropout torch.nn.functional.Dropout 我想问: 它们之间有区别吗? 在什么情况下应该使用其中一种而不是另一种? 当我切换它们时,我没有看到任何性能差异。

46得票2回答
如何理解SpatialDropout1D以及何时使用它?

偶尔我会看到一些模型使用 SpatialDropout1D 而不是 Dropout。例如,在词性标注神经网络中,他们使用:model = Sequential() model.add(Embedding(s_vocabsize, EMBED_SIZE, ...

29得票3回答
PyTorch - 如何在评估模式下关闭Dropout

这是我定义的模型,它是一个简单的LSTM,包含2个全连接层。import copy import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim class myl...

22得票1回答
使用Keras和LSTM/GRU单元进行Dropout

在Keras中,您可以像这样指定一个dropout层: model.add(Dropout(0.5)) 但是使用GRU单元,你可以在构造函数中指定dropout参数: model.add(GRU(units=512, return_sequences=True, ...

21得票2回答
从头开始实现Dropout

这段代码尝试使用自定义的dropout实现: %reset -f import torch import torch.nn as nn # import torchvision # import torchvision.transforms as transforms import tor...

18得票1回答
CNN中的ReLu和Dropout

我正在学习卷积神经网络,对CNN中的某些层感到困惑。 关于ReLu...我只知道它是无限逻辑函数之和,但ReLu并不连接任何上层。我们为什么需要ReLu,它是如何工作的? 关于Dropout...Dropout是如何工作的?我听了G. Hinton的一个视频讲座。他说有一个策略,就是在训练...

14得票2回答
在LSTM之前或之后使用Dropout层。有什么区别?

假设我们有一个用于时间序列预测的LSTM模型。此外,这是一个多变量情况,因此我们使用多个特征来训练模型。 ipt = Input(shape = (shape[0], shape[1]) x = Dropout(0.3)(ipt) ## Dropout before LSTM. ...

9得票1回答
Tensorflow LSTM Dropout 实现

当调用tf.nn.rnn_cell.DropoutWrapper()时,tensorflow如何具体应用dropout? 我看到的所有关于将dropout应用于rnn的文章都引用了Zaremba et. al的论文,其中提到不要在循环连接之间应用dropout。神经元应该在LSTM层之前...

9得票2回答
model.eval() 和 model.train() 在 PyTorch 中影响哪些模块?

model.eval() 方法会修改某些模块(层),这些模块在训练和推理时具有不同的行为。其中一些模块(层)在文档中列出了部分示例,例如:Dropout、BatchNorm等等。请参考特定模块的文档以了解它们在训练/推理模式下的行为是否会受到影响。 是否有哪些模块会受到影响的详尽列表?