10得票5回答
稀疏张量(矩阵)从密集张量Tensorflow中生成

我正在创建一个卷积稀疏自编码器,需要将一个值填充的4D矩阵(其形状为[样本数,N,N,D])转换为稀疏矩阵。 对于每个样本,我有 D 个大小为 NxN 的特征图。我想要将每个 NxN 特征图转换为一个稀疏矩阵,其中最大值映射到1,其他所有值都映射为0。 我不希望在运行时执行此操作,而是在图...

10得票2回答
Keras去噪自编码器(表格数据)

我有一个项目,使用表格数据进行梯度提升树回归。我想尝试在我的数据上使用去噪自编码器,以找到更好的原始数据表示,并提高我的原始GBT分数。此灵感源于著名的Kaggle获胜者(在此处)。 据我所知,提取DAE活动的两个主要选择是创建瓶颈结构并获取单个中间层激活,或将每个层的激活串联为表示。 假...

10得票4回答
使用KL散度时,变分自编码器对于每个输入的MNIST图像都会给出相同的输出图像。

当不使用KL散度项时,VAE几乎完美地重构了mnist图像,但在提供随机噪声时无法正确生成新图像。 当使用KL散度项时,VAE在重构和生成图像时都会产生相同的奇怪输出。 这是损失函数的PyTorch代码: def loss_function(recon_x, x, mu, logva...

10得票1回答
TensorFlow中的稀疏自编码器代价函数

我一直在学习各种TensorFlow教程,以便熟悉其工作原理,并且对使用自编码器产生了兴趣。 最初,我使用了Tensorflow模型库中的自编码器模型: https://github.com/tensorflow/models/tree/master/autoencoder 我成功地运行...

9得票3回答
Python/Keras/Theano 深度自编码器的维度错误

我正在尝试跟随深度自编码器Keras example。 我遇到了维度不匹配的异常,但是我无法弄清楚原因。当我只使用一个编码维度时,它可以工作,但是当我堆叠它们时就不行了。 异常信息:Input 0 is incompatible with layer dense_18: ...

9得票1回答
在PyTorch中进行多个嵌入的更快方法?

我正在开发一个基于torch的库,用于构建对表格数据进行自编码的模型。 其中一个主要特性是为分类特征学习嵌入向量。 然而,在实践中,同时训练多个嵌入层会导致一些减速。我使用for-loop来完成此操作,每次迭代时运行for-loop(我认为)是导致减速的原因。 在构建模型时,我将每个分类...

9得票1回答
如何反转 PyTorch 嵌入?

我在PyTorch中有一个多任务的编码器/解码器模型,输入层有一个(可训练的)torch.nn.Embedding嵌入层。 在一个特定的任务中,我想进行自监督预训练(重新构造掩蔽的输入数据)并将其用于推理(填补数据中的空白部分)。 我猜在训练时可以通过衡量输入嵌入和输出嵌入之间的距离来测量...

9得票2回答
我们能否使用自编码器处理文本数据?

我正在进行一个与医疗保健相关的项目。我将使用症状和疾病来训练我的自编码器,即我的输入以文本形式呈现。这样行得通吗?(我使用的是Rstudio)。请有经验的人帮助我。

9得票1回答
LSTM自编码器在运行较大数据集时无进展

在 this LSTM Autoencoder 中,"test.py" 的 p_input 形状为(128,8,1),表示128组8个数字。我正在尝试将此模型适应基于时间序列的数据,该数据具有4组25,000个时间步长(基本上是0秒到25,000秒)。我尝试使用形状为(4,25000,1)的p...

9得票1回答
自编码器过于强的正则化(Keras自编码器教程代码)

我正在使用有关自编码器的教程:https://blog.keras.io/building-autoencoders-in-keras.html。所有代码都可以运行,但是当我将正则化参数设置为10e-5时(这是教程代码中定义的参数),性能非常差(结果模糊)。实际上,我需要将正则化减小到10e-...