51得票5回答
Keras中add_loss函数的目的是什么?

我最近接触到变分自编码器,并尝试使用Keras将其应用于MNIST数据集。我在GitHub上找到了一个教程。 我的问题与以下代码有关: # Build model vae = Model(x, x_decoded_mean) # Calculate custom loss xent_lo...

44得票2回答
深度置信网络与卷积神经网络对比

我对神经网络领域还很陌生,想知道深度信念网络和卷积网络的区别。同时,是否有一种深度卷积网络,它是深度信念网络和卷积神经网络的结合? 到目前为止,我了解到以下内容。如果有错误,请纠正。 对于图像分类问题,深度信念网络具有许多层,每一层都使用贪心逐层策略进行训练。例如,如果我的图像大小为50 ...

32得票1回答
自动编码器上的二元交叉熵损失是如何工作的?

我使用仅有的Dense层编写了一个基础的自动编码器。以下是我的代码:iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (l...

23得票1回答
使用Keras实现的具有绑定权重的自编码器的解码器权重

我在Keras中实现了一个绑定权重的自编码器,并已成功训练。我的目标是仅使用自编码器的解码器作为另一网络的最后一层,以微调网络和解码器。但问题在于,如下所示的摘要显示,我的绑定权重实现中解码器没有参数,因此没有可以微调的内容(decoder.get_weights()返回[])。我的问题是:我...

19得票1回答
如何在Keras中连接LSTM层,使用RepeatVector或return_sequence=True?

我正在尝试在Keras中为时间序列开发一个编码器模型。数据的形状为(5039,28,1),这意味着我的seq_len为28,只有一个特征。对于编码器的第一层,我使用112个隐藏单元,第二层将有56个单元,并且为了能够返回解码器的输入形状,我不得不添加第三层具有28个隐藏单元(这个自编码器应该重...

19得票1回答
TensorFlow:数据集.train.next_batch如何定义?

我正在尝试学习TensorFlow,研究以下示例:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/autoencoder.ipynb然后我对下面的代码有一些问...

18得票2回答
如何为图像分类的卷积神经网络确定参数?

我正在使用卷积神经网络(无监督特征学习+ Softmax回归分类器)进行图像分类。我已经学习了Andrew NG在这个领域的所有教程。http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial。 我开发的网络具有: - 输入层 - 大小为...

17得票2回答
自编码器需要注意力机制吗?

我对自编码器中注意力机制的概念感到困惑。我认为我理解了在seq2seq翻译方面使用注意力的用法——在训练完组合的编码器和解码器之后,我们可以同时使用编码器和解码器创建(例如)语言翻译器。因为我们在生产中仍然使用解码器,所以我们可以利用注意力机制。 但是,如果自编码器的主要目标是生成输入向量的...

16得票3回答
Keras LSTM自编码器时间序列重构

我正在尝试使用LSTM自编码器(Keras)重构时间序列数据。 现在,我想在少量样本(5个样本,每个样本长500个时间步长,有1个维度)上训练自编码器。我希望确保模型能够重构这5个样本,之后再使用所有数据(6000个样本)。 window_size = 500 features = 1 da...

13得票3回答
如何解决PyTorch中由于大小不匹配导致的运行时错误?

我正在尝试使用 PyTorch 实现一个简单的自编码器。我的数据集由 256 x 256 x 3 的图像组成。我已经构建了一个 torch.utils.data.dataloader.DataLoader 对象,其中包含图像存储为张量。当我运行自编码器时,出现了运行时错误: size ...