我对Tensorflow和机器学习都比较新,所以我在此为一个(很可能)琐碎的问题道歉。
我使用dropout技术来提高网络的学习速度,它似乎运作得很好。接下来,我想测试该网络是否按照如下方式工作:
def Ask(self, image):
return self.session.run(self.model, feed_dict = {self.inputPh: image})
很明显,由于仍然存在dropout,每次都会产生不同的结果。我能想到的一个解决方案是创建两个单独的模型——一个用于训练,另一个用于实际使用网络的后续,但是,这样的解决方案对我来说似乎不切实际。
解决这个问题的常见方法是什么?
解决这个问题的常见方法是什么?
tf.nn.dropout
中有drop_probability
而没有keep_probability
。 - nessuno