可以看到,在“error_giving_notebook”中使用了tf.function修饰符,它会抛出ValueError错误,而仅仅移除tf.function修饰符的同一笔记本在“non_problematic_notebook”中却可以正常运行。可能的原因是什么?
可以看到,在“error_giving_notebook”中使用了tf.function修饰符,它会抛出ValueError错误,而仅仅移除tf.function修饰符的同一笔记本在“non_problematic_notebook”中却可以正常运行。可能的原因是什么?
如果你正在尝试在 TensorFlow 2.0 中使用函数装饰器,请在导入 TensorFlow 后使用以下行使函数立即运行:
tf.config.experimental_run_functions_eagerly(True)
由于上述内容已经被弃用(不再是实验性的?),请使用以下内容代替:
tf.config.run_functions_eagerly(True)
如果你想了解更多,请参考此链接。
import tensorflow as tf
然后执行 tf.config...
。 - YScharf这里的问题在于 conv2d 类的 call 方法的返回值:
if self.bias:
if self.pad == 'REFLECT':
self.p = (self.filter_size - 1) // 2
self.x = tf.pad(inputs, [[0, 0], [self.p, self.p], [self.p, self.p], [0, 0]], 'REFLECT')
return Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride),
padding='VALID', use_bias=True, kernel_initializer=self.w, bias_initializer=self.b)(self.x)
else:
return Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride),
padding=self.pad, use_bias=True, kernel_initializer=self.w, bias_initializer=self.b)(inputs)
else:
if self.pad == 'REFLECT':
self.p = (self.filter_size - 1) // 2
self.x = tf.pad(inputs, [[0, 0], [self.p, self.p], [self.p, self.p], [0, 0]], 'REFLECT')
return Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride),
padding='VALID', use_bias=False, kernel_initializer=self.w)(self.x)
else:
return Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride),
padding=self.pad, use_bias=False, kernel_initializer=self.w)(inputs)
每次调用时,返回一个Conv2D对象会创建tf.Variable(s) (卷积层的权重和偏置)。predictions = model(images)
在您的tf装饰函数中,因此出现了异常。
解决此问题的一种可能的方法是更改conv2d类中的构建和调用方法,如下所示:
def build(self, inputs):
self.w = tf.random_normal_initializer(mean=0.0, stddev=1e-4)
if self.bias:
self.b = tf.constant_initializer(0.0)
else:
self.b = None
self.conv_a = Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride), padding='VALID', use_bias=True, kernel_initializer=self.w, bias_initializer=self.b)
self.conv_b = Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride), padding=self.pad, use_bias=True, kernel_initializer=self.w, bias_initializer=self.b)
self.conv_c = Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride), padding='VALID', use_bias=False, kernel_initializer=self.w)
self.conv_d = Conv2D(filters=self.filter_num, kernel_size=(self.filter_size, self.filter_size), strides=(self.stride, self.stride),padding=self.pad, use_bias=False, kernel_initializer=self.w)
def call(self, inputs):
if self.bias:
if self.pad == 'REFLECT':
self.p = (self.filter_size - 1) // 2
self.x = tf.pad(inputs, [[0, 0], [self.p, self.p], [self.p, self.p], [0, 0]], 'REFLECT')
return self.conv_a(self.x)
else:
return self.conv_b(inputs)
else:
if self.pad == 'REFLECT':
self.p = (self.filter_size - 1) // 2
self.x = tf.pad(inputs, [[0, 0], [self.p, self.p], [self.p, self.p], [0, 0]], 'REFLECT')
return self.conv_c(self.x)
else:
return self.conv_d(inputs)
为了更好地理解AutoGraph和@tf.function的工作原理,我建议看一下这个链接
import tensorflow as tf
tf.config.run_functions_eagerly(True)
@tf.function
,你想使用它有特殊的原因吗? - Daniel Möllertf.gradients
而不是梯度磁带。但是,要使tf.gradients
起作用,整个模型从开始到结束都必须是一个图形。(在您的情况下似乎没问题)。现在,如果您的代码只是笔记本中的内容,您可能真的应该考虑使用回调的model.fit()
而不是自定义训练循环。 - Daniel Möller