我写的以下代码,在self.optimizer.compute_gradients(self.output,all_variables)
这一行失败。
import tensorflow as tf
import tensorlayer as tl
from tensorflow.python.framework import ops
import numpy as np
class Network1():
def __init__(self):
ops.reset_default_graph()
tl.layers.clear_layers_name()
self.sess = tf.Session()
self.optimizer = tf.train.AdamOptimizer(learning_rate=0.1)
self.input_x = tf.placeholder(tf.float32, shape=[None, 784],name="input")
input_layer = tl.layers.InputLayer(self.input_x)
relu1 = tl.layers.DenseLayer(input_layer, n_units=800, act = tf.nn.relu, name="relu1")
relu2 = tl.layers.DenseLayer(relu1, n_units=500, act = tf.nn.relu, name="relu2")
self.output = relu2.all_layers[-1]
all_variables = relu2.all_layers
self.gradient = self.optimizer.compute_gradients(self.output,all_variables)
init_op = tf.initialize_all_variables()
self.sess.run(init_op)
带有警告,
TypeError: 参数不是tf.Variable类型:Tensor("relu1/Relu:0", shape=(?, 800), dtype=float32)
然而,当我将该行代码更改为tf.gradients(self.output,all_variables)
时,代码可以正常工作,至少没有报出警告。我错在哪里了?因为我认为这两种方法实际上执行的是相同的操作,即返回(梯度、变量)对列表。
tensorlayers
?我们有tf.contrib.layers
。 - drpng