我想知道TensorFlow的放置算法(如白皮书所述)何时实际使用。到目前为止,我看到的所有分发TensorFlow的示例似乎都手动指定节点应该在哪里执行,使用tf.device()
。
我想知道TensorFlow的放置算法(如白皮书所述)何时实际使用。到目前为止,我看到的所有分发TensorFlow的示例似乎都手动指定节点应该在哪里执行,使用tf.device()
。
simple_placer.cc
中找到),但需要一些显式注释(通过tf.device()
)才能产生有效的放置。高级构造,如tf.train.replica_device_setter()
,包装了tf.device()
以指定常见策略,例如“在参数服务器上分片变量,并在工作设备上放置所有操作”,我们在分布式训练中广泛使用这个功能。