TensorBoard图中的“n张量”是什么意思?

3

我正在阅读TensorFlow教程代码mnist_deep.py并保存图形。

作用域fc1的输出应该具有形状[-1, 1024]。但在TensorBoard中的图表中是2个张量

"n个张量"在TensorBoard图中的含义是什么?

  # Fully connected layer 1 -- after 2 round of downsampling, our 28x28 image
  # is down to 7x7x64 feature maps -- maps this to 1024 features.
  with tf.name_scope('fc1'):
    W_fc1 = weight_variable([7 * 7 * 64, 1024])
    b_fc1 = bias_variable([1024])

    h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
    h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)

  # Dropout - controls the complexity of the model, prevents co-adaptation of
  # features.
  with tf.name_scope('dropout'):
    keep_prob = tf.placeholder(tf.float32)
    h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)

enter image description here

1个回答

3
这应该意味着在 Dropout 节点中,Relu 的输出张量被使用了两次。如果您尝试展开它,您将看到输入分别进入两个不同的节点。

我认为在图表上显示“n个张量”作为张量被“消耗”的次数有点令人困惑。在上面的图表中,“relu”运算符只产生1个张量,没有更多了。我希望Tensorboard开发人员考虑改变这一点。 - IgNite

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接