我正在使用keras和tensorflow进行深度学习方面的工作。在最初的阶段,我遇到了一个疑问。当我使用
这是一个 非常相似的问题,但接受的答案包括Theano,并没有完全解决我的疑惑。
例如:假设我有一个形状为
什么是训练的差异,哪种方式最佳实践?
tf.contrib.layers.flatten
(Api 1.8)来压缩图像(也可以是多通道图像)时,它与使用numpy的flatten函数有什么不同?这会对训练产生什么影响?我注意到tf.contrib.layers.flatten
所需时间比numpy的flatten更长。它做了更多的事情吗?这是一个 非常相似的问题,但接受的答案包括Theano,并没有完全解决我的疑惑。
例如:假设我有一个形状为
(10000,2,96,96)
的训练数据。现在我需要将输出转换为(10000,18432)
的形状。我可以使用tensorflow的flatten或使用numpy的flatten。X_reshaped = X_train.reshape(*X_train.shape[:1], -2)
什么是训练的差异,哪种方式最佳实践?
X_reshaped.print()
时,你会得到什么? - Mohammad Athar(10000,2,96,96)
是指(图像数量,颜色通道数,x像素,y像素)
,对吗?在几个不同的场合,我看到过形状为(图像数量,x像素,y像素,颜色通道数)
的情况。您的选择有什么区别,您是如何激励自己做出这个选择的呢?谢谢! - NeStack