我将尝试在Keras中实现一个自编码器,不仅可以最小化重构误差,而且其构建的特征还应该最大化我定义的一个度量。目前我真的不知道如何做到这一点。
以下是我目前的代码片段:
以下是我目前的代码片段:
corrupt_data = self._corrupt(self.data, 0.1)
# define encoder-decoder network structure
# create input layer
input_layer = Input(shape=(corrupt_data.shape[1], ))
encoded = Dense(self.encoding_dim, activation = "relu")(input_layer)
decoded = Dense(self.data.shape[1], activation="sigmoid")(encoded)
# create autoencoder
dae = Model(input_layer, decoded)
# define custom multitask loss with wlm measure
def multitask_loss(y_true, y_pred):
# extract learned features from hidden layer
learned_fea = Model(input_layer, encoded).predict(self.data)
# additional measure I want to optimize from an external function
wlm_measure = wlm.measure(learned_fea, self.labels)
cross_entropy = losses.binary_crossentropy(y_true, y_pred)
return wlm_measure + cross_entropy
# create optimizer
dae.compile(optimizer=self.optimizer, loss=multitask_loss)
dae.fit(corrupt_data, self.data,
epochs=self.epochs, batch_size=20, shuffle=True,
callbacks=[tensorboard])
# separately create an encoder model
encoder = Model(input_layer, encoded)
目前这个功能不能正常工作... 当我查看训练历史时,模型似乎忽略了额外的度量,并仅基于交叉熵损失进行训练。此外,如果我将损失函数更改为仅考虑wlm度量,我会得到错误信息“numpy.float64”对象没有属性“get_shape”(我不知道将我的wlm函数的返回类型更改为张量是否有帮助)。
我认为可能有几个地方出错了。我不知道我是否在自定义损失函数中正确提取了隐藏层的输出。此外,我不知道我的wlm.measure函数是否输出正确——它应该输出numpy.float32还是float32类型的1维张量。
基本上,传统的损失函数只关心输出层的预测标签和真实标签。在我的情况下,我还需要考虑隐藏层的输出(激活),这在Keras中实现起来并不那么简单。
感谢您的帮助!