13得票1回答
我应该使用损失函数还是准确率作为早停策略的度量指标?

我正在学习和尝试神经网络,希望从更有经验的人那里获得以下问题的意见: 当我在Keras中训练一个自编码器(使用'mean_squared_error'损失函数和SGD优化器)时,验证损失逐渐下降,而验证准确率上升。到目前为止都很好。 然而,一段时间后,损失仍在持续下降,但准确率突然回到了一...

13得票2回答
自编码器中的权重绑定

我一直在研究自编码器,并在思考是否要使用绑定权重。我打算将它们堆叠作为预训练步骤,然后使用它们的隐藏表示来喂养神经网络。 如果使用非绑定权重,则会看起来像这样: f(x)=σ2(b2+W2*σ1(b1+W1*x)) 如果使用绑定权重,则会看起来像这样: f(x)=σ2(b2+W1T*σ...

13得票1回答
Caffe中的权重绑定自编码器

据我所知,通常情况下自编码器在编码和解码网络中使用绑定权重对吧? 我查看了Caffe的自编码器示例,但我没有看到如何绑定权重。我注意到编码和解码网络共享相同的blob,但如何确保权重被正确更新? 如何在Caffe中实现绑定权重自编码器?

12得票2回答
中间层导致TensorFlow优化器停止工作。

这张图展示了一个简单的信号识别编码器正在进行训练,实际上显示权重是通过优化器来进化的: import tensorflow as tf import numpy as np initia = tf.random_normal_initializer(0, 1e-3) DEPTH_1 = 1...

12得票2回答
如何在PyTorch中使用BCELoss?

我想在PyTorch中编写一个简单的自编码器并使用BCELoss,但是由于它期望目标在0和1之间,所以我得到了NaN。有人可以发布一个BCELoss的简单用例吗?

12得票1回答
LSTM自编码器问题

简述: 自编码器欠拟合时间序列重构,只预测平均值。 问题设置: 这里是我尝试的序列到序列自编码器的摘要。这张图片来自这篇论文:https://arxiv.org/pdf/1607.00148.pdf 编码器: 标准LSTM层。输入序列在最终隐藏状态中进行编码。 解码器: LSTM单元(我想!...

11得票1回答
从已训练的自编码器中提取编码器和解码器

我希望将自编码器的学习和应用分为两部分,按照https://blog.keras.io/building-autoencoders-in-keras.html所述的步骤,并使用时尚MNIST数据进行测试: 加载图像,进行拟合(可能需要数小时或数天),并使用回调函数保存最佳自编码器模型。该过...

11得票1回答
Keras的dropout和GaussianNoise层是否在每个批次中应用不同的噪声实例?

我正在使用Keras构建一个去噪自编码器。我使用的模型是:input_img = Input(shape=(10,)) encoded = GaussianNoise(0.01)(input_img) encoded = Dropout(0.1)(encoded) encoded = Dens...

10得票1回答
重复使用一组Keras层

我知道您可以重复使用Keras层。例如,我为解码器网络声明了两个层:decoder_layer_1 = Dense(intermediate_dim,activation='relu',name='decoder_layer_1') decoder_layer_2 = Dense(interm...

10得票2回答
如何在Keras中正确实现自定义活动正则化?

我正在尝试按照Andrew Ng的讲义实现稀疏自编码器,如此处所示:这里。 它要求在自编码器层上应用稀疏约束,通过引入惩罚项(K-L散度)。我尝试使用这里提供的方向,在做了一些小修改后实现了它。 下面是由SparseActivityRegularizer类实现的K-L散度和稀疏惩罚项。def ...