23得票1回答
使用Keras实现的具有绑定权重的自编码器的解码器权重

我在Keras中实现了一个绑定权重的自编码器,并已成功训练。我的目标是仅使用自编码器的解码器作为另一网络的最后一层,以微调网络和解码器。但问题在于,如下所示的摘要显示,我的绑定权重实现中解码器没有参数,因此没有可以微调的内容(decoder.get_weights()返回[])。我的问题是:我...

32得票1回答
自动编码器上的二元交叉熵损失是如何工作的?

我使用仅有的Dense层编写了一个基础的自动编码器。以下是我的代码:iLayer = Input ((784,)) layer1 = Dense(128, activation='relu' ) (iLayer) layer2 = Dense(64, activation='relu') (l...

13得票2回答
自编码器中的权重绑定

我一直在研究自编码器,并在思考是否要使用绑定权重。我打算将它们堆叠作为预训练步骤,然后使用它们的隐藏表示来喂养神经网络。 如果使用非绑定权重,则会看起来像这样: f(x)=σ2(b2+W2*σ1(b1+W1*x)) 如果使用绑定权重,则会看起来像这样: f(x)=σ2(b2+W1T*σ...

7得票4回答
数值错误:输入0与层conv_1不兼容:期望的ndim=3,发现的ndim=4。

我正在尝试制作一个变分自编码器来学习编码DNA序列,但是遇到了一个意外的错误。 我的数据是一个独热数组的数组。 我遇到的问题是ValueError。它告诉我我的输入是四维的,而我的输入明显是三维的(100,4008,4)。 实际上,当我打印出seq层时,它显示它的形状是(?,100,40...

7得票1回答
Tensorflow自编码器 - 如何计算重构误差?

我已经在Tensorflow中实现了以下自编码器,如下所示。它基本上以MNIST数字作为输入,学习数据的结构并在输出处再现输入。 from __future__ import division, print_function, absolute_import import tensorfl...

9得票1回答
在PyTorch中进行多个嵌入的更快方法?

我正在开发一个基于torch的库,用于构建对表格数据进行自编码的模型。 其中一个主要特性是为分类特征学习嵌入向量。 然而,在实践中,同时训练多个嵌入层会导致一些减速。我使用for-loop来完成此操作,每次迭代时运行for-loop(我认为)是导致减速的原因。 在构建模型时,我将每个分类...

10得票1回答
重复使用一组Keras层

我知道您可以重复使用Keras层。例如,我为解码器网络声明了两个层:decoder_layer_1 = Dense(intermediate_dim,activation='relu',name='decoder_layer_1') decoder_layer_2 = Dense(interm...

18得票2回答
如何为图像分类的卷积神经网络确定参数?

我正在使用卷积神经网络(无监督特征学习+ Softmax回归分类器)进行图像分类。我已经学习了Andrew NG在这个领域的所有教程。http://ufldl.stanford.edu/wiki/index.php/UFLDL_Tutorial。 我开发的网络具有: - 输入层 - 大小为...

13得票1回答
我应该使用损失函数还是准确率作为早停策略的度量指标?

我正在学习和尝试神经网络,希望从更有经验的人那里获得以下问题的意见: 当我在Keras中训练一个自编码器(使用'mean_squared_error'损失函数和SGD优化器)时,验证损失逐渐下降,而验证准确率上升。到目前为止都很好。 然而,一段时间后,损失仍在持续下降,但准确率突然回到了一...

44得票2回答
深度置信网络与卷积神经网络对比

我对神经网络领域还很陌生,想知道深度信念网络和卷积网络的区别。同时,是否有一种深度卷积网络,它是深度信念网络和卷积神经网络的结合? 到目前为止,我了解到以下内容。如果有错误,请纠正。 对于图像分类问题,深度信念网络具有许多层,每一层都使用贪心逐层策略进行训练。例如,如果我的图像大小为50 ...