7得票3回答
无法使用Keras中的multi_gpu_model保存模型,请问如何解决?

升级到Keras 2.0.9后,我一直在使用multi_gpu_model实用工具,但我无法保存我的模型或最佳权重。 model.save('path') 我收到的错误是: 类型错误:无法对模块对象进行pickle处理 我猜测可能存在访问模型对象的问题。是否有解决此问题的方法?

10得票5回答
Pytorch Lightning在分布式数据并行模式下会复制主脚本。

当我在ddp模式(2个GPU)下启动我的主要脚本时,Pytorch Lightning会复制在主要脚本中执行的所有内容,例如打印或其他逻辑。我需要一些扩展训练逻辑,我希望自己处理。例如,在Trainer.fit()之后执行某些操作(仅一次!)。但是由于主要脚本的复制,这并不按照我想象的方式工作...

9得票2回答
使用多个GPU的OpenCL/OpenGL交互操作

我在使用OpenCL/OpenGL互操作时遇到了多GPU的问题。我正在尝试编写一个应用程序,以呈现密集计算的结果。最终它将运行一个优化问题,并根据结果将某些内容渲染到屏幕上。作为一个测试案例,我从这个课程中开始使用粒子模拟示例代码:http://web.engr.oregonstate.edu...

8得票1回答
如何解决dist.init_process_group卡住(或死锁)的问题?

我需要在DGX A100上设置DDP(分布式数据并行),但它不起作用。每当我尝试运行它时,它就会卡住。我的代码非常简单,只是为了调试而生成了4个进程来支持4个GPU(出于调试目的,我立即销毁了组,但甚至没有达到那里)。 def find_free_port(): """ https:...

8得票2回答
如何在Tensorflow 2.0 + Keras中使用GPU并行推理?

让我们从一个前提开始,我是新手接触TensorFlow和深度学习。 我有一个使用tf.Model.train()训练的TF 2.0 Keras风格模型,两个可用的GPU,并且我正在寻求缩短推理时间。 我使用非常方便的tf.distribute.MirroredStrategy().scop...

11得票2回答
TensorFlow同时使用两个GPU

首先,我还是tensorflow的新手。我正在使用v0.9,并尝试使用我们机器上安装的两个GPU。这里发生了以下情况: 当我在该机器上启动一个 training data 脚本时,它只在其中一个GPU上运行。默认情况下它会占用第一个GPU gpu:0/。 当我启动另一个 training ...

24得票1回答
多GPU的基本用法

我如何使用两个设备以改善以下代码(向量求和)的性能?是否可能同时使用更多设备?如果是,如何管理不同设备上全局内存中向量的分配?#include <stdio.h> #include <stdlib.h> #include <math.h> #include ...

9得票1回答
管理多个GPU与多个用户

我有一台服务器(Ubuntu 16.04),带有4个GPU。我的团队共用这台服务器,我们目前的做法是使用Docker将所有工作容器化,并使用类似于 $ NV_GPU=0 nvidia-docker run -ti nvidia/cuda nvidia-smi 的方法限制容器对GPU的访问。当我...

7得票1回答
Tensorflow在Ray工作进程中无法检测到GPU

当我尝试使用Tensorflow与Ray的代码示例时,Tensorflow在由“remote”工作器调用时无法检测到我的机器上的GPU,但在本地调用时却可以找到GPU。我将“remote”和“locally”放在引号中,因为一切都在我的桌面上运行,该桌面拥有两个GPU,正在运行Ubuntu 1...

7得票3回答
.NET中的多个监视器

在.NET的Screen.AllScreens中,所有显示器是否都会被返回,无论硬件配置如何?例如,在单个PC上,您可以有以下情况: 视频卡输出到两个显示器=共计2个显示器 每个视频卡输出到1个显示器=共计2个显示器, 每个视频卡输出到2个显示器=6个显示器, Eyefinity卡输出到6...