Keras下反卷积的问题

3

我尝试使用Tensorflow后端的Keras中的Deconvolution2D。

但是我遇到了一些问题。 首先,在output_shape中,如果我为batch_size传递None,则会出现以下错误:

TypeError: Expected binary or unicode string, got None

如果我把"None"替换成我使用的批量大小,就会出现以下错误:

InvalidArgumentError (see above for traceback): Conv2DCustomBackpropInput: input and out_backprop must have the same batch size
 [[Node: conv2d_transpose = Conv2DBackpropInput[T=DT_FLOAT, data_format="NHWC", padding="VALID", strides=[1, 2, 2, 1], use_cudnn_on_gpu=true, _device="/job:localhost/replica:0/task:0/cpu:0"](conv2d_transpose/output_shape, transpose, Reshape_4)]]

这是我使用的模型:

model = Sequential()

reg = lambda: l1l2(l1=1e-7, l2=1e-7)
h = 5
model.add(Dense(input_dim=100, output_dim=nch * 4 * 4, W_regularizer=reg()))
model.add(BatchNormalization(mode=0))
model.add(Reshape((4, 4, nch)))
model.add(Deconvolution2D(256, h,h, output_shape=(128,8,8,256 ), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Deconvolution2D(256, h,h, output_shape=(128,16,16,256 ), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Deconvolution2D(64, h,h, output_shape=(128,32,32,64), subsample=(2,2), border_mode='same'))
model.add(BatchNormalization(mode=0, axis=1))
model.add(LeakyReLU(0.2))
model.add(Convolution2D(3, h, h, border_mode='same', W_regularizer=reg()))
model.add(Activation('sigmoid'))
model.summary()

为什么要将batch_size设置为None? - Marcin Możejko
因为在Keras中,None表示可变批量大小。(就像Tensorflow中的-1一样) - Pusheen_the_dev
1个回答

2
在旧版本的Keras中,反卷积时需要始终给定固定的批处理大小并手动计算输出形状,这是很麻烦的。这也意味着您的数据集大小必须能够被'batch_size'整除,否则会在最后一个(较小的)批处理上引发错误。
幸运的是,在Keras 2.0中已经解决了这个问题。Deconvolution2D已被Conv2DTranspose替换,您甚至不再需要将output_shape作为参数提供:
    model.add(Conv2DTranspose(filters=256, kernel_size=(h,h), strides=(2,2), padding='same'))

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接