406得票4回答
理解Keras中的LSTM

我正在尝试理解LSTMs的概念,并在Christopher Olah的这篇文章中找到了一些线索,该文章是用Keras实现的。我正在遵循Jason Brownlee撰写的Keras教程博客。我主要困惑的是: 将数据序列重新塑造为[samples, time steps, features] ...

156得票18回答
Tensorflow - 值错误:无法将NumPy数组转换为张量(不支持的对象类型float)

继续上一个问题:Tensorflow - TypeError: 'int' object is not iterable 我的训练数据是一个列表,其中每个元素也是由1000个浮点数组成的列表。例如,x_train[0] = [0.0, 0.0, 0.1, 0.25, 0.5, ...] ...

111得票5回答
PyTorch LSTM中“hidden”和“output”的区别是什么?

我在阅读PyTorch的LSTM模块文档时遇到了困难(RNN和GRU也类似)。关于输出,文档中写道: 输出:output, (h_n, c_n) - output (seq_len, batch, hidden_size * num_directions):包含来自RNN最后一层的每个t的输...

106得票2回答
在LSTM中使用tanh的直觉是什么?

在LSTM网络(Understanding LSTMs)中,为什么输入门和输出门使用tanh函数? 这背后的直觉是什么? 这只是一种非线性转换吗?如果是这样,我能否把它们都改成另一个激活函数(例如ReLU)?

99得票2回答
Keras:LSTM dropout和LSTM循环dropout的区别

来自Keras文档: dropout: 0到1之间的浮点数,表示输入线性变换中要丢弃的单元的比例。 recurrent_dropout: 0到1之间的浮点数,表示循环状态的线性变换中要丢弃的单元的比例。 有人能指出以下图片中每个丢弃操作发生的位置吗?

99得票5回答
双向LSTM和普通LSTM有什么区别?

有人能否解释一下这个问题?我知道双向LSTM具有前向和后向传递,但是相比单向LSTM而言,这有什么优势吗? 它们分别更适合什么情况?

98得票4回答
如何在Keras中堆叠多个LSTM?

我正在使用深度学习库Keras并尝试堆叠多个LSTM,但没有成功。下面是我的代码:model = Sequential() model.add(LSTM(100,input_shape =(time_steps,vector_size))) model.add(LSTM(100)) 上述代码在...

87得票4回答
当我在Keras中创建一个有N个“units”的stateful LSTM层时,我究竟在配置什么?

在普通的Dense层中,第一个参数也是units,表示该层中神经元/节点的数量。然而,标准的LSTM单元如下所示: 这是 "理解LSTM网络" 的改版。 在Keras中,当我像这样创建一个LSTM对象 LSTM(units=N, ...),我是否实际上创建了N个这样的LSTM单元?还是...

64得票7回答
Tensorflow数据适配器错误:ValueError:找不到能处理输入的数据适配器。

在运行sentdex的加密货币RNN教程脚本链接时,我遇到了一个错误, 但是当我尝试训练模型时,遇到了错误。我的tensorflow版本是2.0.0,我正在运行python 3.6。在尝试训练模型时,我收到以下错误: File "C:\python36-64\lib\site-packag...

64得票2回答
如何在Keras中使用return_sequences选项和TimeDistributed层?

我有一个对话语料库,如下所示。我想实现一个LSTM模型,它可以预测系统的动作。系统的动作被描述为一个位向量。而用户输入被计算为一个词嵌入,也是一个位向量。 t1: user: "Do you know an apple?", system: "no"(action=2) t2: user: ...