是否可以像本地 gpus 一样使 gpu 集群(可通过 ssh 访问)可访问?

Posted

技术标签:

【中文标题】是否可以像本地 gpus 一样使 gpu 集群(可通过 ssh 访问)可访问?【英文标题】:Is it possible to make a gpu cluster (accessible via ssh) accessible like local gpus? 【发布时间】:2017-04-23 19:32:41 【问题描述】:

我可以通过 ssh 访问 gpu 集群。我想在它上面运行 matlab 代码而不在集群上安装 matlab。这就是为什么我想让 gpus 像本地 gpus 一样可访问。 例如matlab代码

gpuDevice()

不仅应该显示我的本地 gpu,还应该显示远程 gpu。那可能吗?我必须以某种方式在 CUDA 中进行配置吗?

【问题讨论】:

会有很多延迟... 最好在集群上安装matlab并在那里运行计算? 是的 - 也降低了相当多的带宽。 【参考方案1】:

rcuda 是您正在寻找的。但是,由于与远程 GPU 的链接具有高延迟、低带宽的特性,使用远程 GPU 会产生severe performance 的影响。因此,尽可能在远程机器上运行整个代码(在您的情况下为 matlab)是更好的选择。

【讨论】:

【参考方案2】:

可能正在使用 docker swarm 使您的集群可以回答您的问题。每个用户都可以分开,您可以访问已建立容器中的每个 gpu 卡。

【讨论】:

您能否添加更多详细信息、相关文档的链接等...? 如何使用 Docker 使远程 GPU 看起来像本地 GPU?

以上是关于是否可以像本地 gpus 一样使 gpu 集群(可通过 ssh 访问)可访问?的主要内容,如果未能解决你的问题,请参考以下文章

Alluxio+NVIDIA GPUs : 加速分析和人工智能

如何使我的 php 项目像 .exe 文件一样可分发

仅分配第一个 gpu(尽管我在 pytorch cuda 框架中使其他 gpu 可见)

mmdetection使用指定编号的GPU训练模型

在 LSTM 网络的输入上使用 Masking 时,Keras(TensorFlow 后端)多 GPU 模型(4gpus)失败

如何在 Cupy 中使用多个 GPU?