11得票2回答
如何通过Tensorflow-GPU和Keras解决GPU利用率低的问题?

我有一台4个GPU的机器,在上面使用Keras运行Tensorflow(GPU版本)。我的一些分类问题需要几个小时才能完成。 nvidia-smi命令返回Volatile GPU-Util,但任何一个GPU的利用率都不会超过25%。如何提高GPU利用率和加速训练?

10得票2回答
Tensorflow Java多GPU推理

我有一台配备了多个GPU的服务器,希望在Java应用程序内进行模型推断时充分利用它们。 默认情况下,TensorFlow会占用所有可用的GPU,但只使用第一个GPU。 我能想到三个选项来解决这个问题: 在进程级别上限制设备可见性,即使用CUDA_VISIBLE_DEVICES环境变量。 ...

10得票5回答
Pytorch Lightning在分布式数据并行模式下会复制主脚本。

当我在ddp模式(2个GPU)下启动我的主要脚本时,Pytorch Lightning会复制在主要脚本中执行的所有内容,例如打印或其他逻辑。我需要一些扩展训练逻辑,我希望自己处理。例如,在Trainer.fit()之后执行某些操作(仅一次!)。但是由于主要脚本的复制,这并不按照我想象的方式工作...

9得票2回答
使用多个GPU的OpenCL/OpenGL交互操作

我在使用OpenCL/OpenGL互操作时遇到了多GPU的问题。我正在尝试编写一个应用程序,以呈现密集计算的结果。最终它将运行一个优化问题,并根据结果将某些内容渲染到屏幕上。作为一个测试案例,我从这个课程中开始使用粒子模拟示例代码:http://web.engr.oregonstate.edu...

9得票1回答
管理多个GPU与多个用户

我有一台服务器(Ubuntu 16.04),带有4个GPU。我的团队共用这台服务器,我们目前的做法是使用Docker将所有工作容器化,并使用类似于 $ NV_GPU=0 nvidia-docker run -ti nvidia/cuda nvidia-smi 的方法限制容器对GPU的访问。当我...

8得票1回答
如何解决dist.init_process_group卡住(或死锁)的问题?

我需要在DGX A100上设置DDP(分布式数据并行),但它不起作用。每当我尝试运行它时,它就会卡住。我的代码非常简单,只是为了调试而生成了4个进程来支持4个GPU(出于调试目的,我立即销毁了组,但甚至没有达到那里)。 def find_free_port(): """ https:...

8得票1回答
CUDA SDK示例在多GPU系统中抛出各种错误

我有一台运行Ubuntu Precise的Dell Precision Rack,配备了两个Tesla C2075和一个Quadro 600作为显示设备。最近我在我的台式电脑上完成了一些测试,现在尝试将结果移植到工作站上。 由于没有安装CUDA,我按照这个指南进行了安装,并根据这些建议调整了...

8得票2回答
如何在Tensorflow 2.0 + Keras中使用GPU并行推理?

让我们从一个前提开始,我是新手接触TensorFlow和深度学习。 我有一个使用tf.Model.train()训练的TF 2.0 Keras风格模型,两个可用的GPU,并且我正在寻求缩短推理时间。 我使用非常方便的tf.distribute.MirroredStrategy().scop...

7得票1回答
Tensorflow在Ray工作进程中无法检测到GPU

当我尝试使用Tensorflow与Ray的代码示例时,Tensorflow在由“remote”工作器调用时无法检测到我的机器上的GPU,但在本地调用时却可以找到GPU。我将“remote”和“locally”放在引号中,因为一切都在我的桌面上运行,该桌面拥有两个GPU,正在运行Ubuntu 1...

7得票1回答
多GPU / 塔式设置Tensorflow 1.2估算器

我希望将_model_fn用于Estimator并转换为多GPU解决方案。 是否可以在Estimator API内部完成,或者我必须显式编写设备放置和同步代码。 我知道我可以使用tf.device('gpu:X')将模型放置在GPU X上。我也知道我可以循环使用可用的GPU名称来复制我的模...