使用本地 GPU 的 Google Colaboratory 本地运行时
Posted
技术标签:
【中文标题】使用本地 GPU 的 Google Colaboratory 本地运行时【英文标题】:Google Colaboratory local runtime using local GPU 【发布时间】:2018-09-26 03:42:49 【问题描述】:我正在使用 Colaboratory 和 Pytorch 运行一个 GAN,该 GAN 使用了一个不寻常的数据集,该数据集当前存储在我的机器本地。为了访问这些文件,我连接到本地运行时(根据https://research.google.com/colaboratory/local-runtimes.html)。但是,Colaboratory 现在在运行时使用我自己的 GPU,而在之前的运行中没有这样做。我知道这一点是因为当前的运行速度要慢得多,因为他们使用的是我的 GTX 1060 6GB 而不是 Colab 的 Tesla K80。
我用这个检查过
torch.cuda.get_device_name(0)
当我在本地连接时返回“GeForce GTX 1060 6G”。 即使编辑 -> 笔记本设置 -> 硬件加速器 -> 选择“GPU”也是如此。
但是,当我没有在本地连接,而是使用(默认)“连接到托管运行时”选项时,
torch.cuda.get_device_name(0)
确实返回“Tesla K80”。
我无法将我的数据集上传到云端硬盘,因为它是一个大型图像数据集,我想继续使用本地运行时。
如何同时使用本地运行时和 Colab 令人惊叹的 Tesla K80? 任何帮助将不胜感激。
【问题讨论】:
这回答了你的问题:***.com/questions/53691393/jupyter-notebook-gpu @manza 请考虑添加您的评论作为答案,因为它似乎可以满足问题。 这能回答你的问题吗? Jupyter Notebook - GPU 【参考方案1】:Colab 正在使用您的 GPU,因为您将它连接到本地运行时。这就是将它连接到您自己的运行时的意义意味着。这意味着您正在使用 您的 机器,而不是在 Google 的服务器上处理该过程。如果您仍想使用 Google 的服务器和处理能力,我建议您查看connecting your Google Drive to the Colaboratory runtime。
【讨论】:
以上是关于使用本地 GPU 的 Google Colaboratory 本地运行时的主要内容,如果未能解决你的问题,请参考以下文章
使用本地 GPU 的 Google Colaboratory 本地运行时
google Colab 使用教程 免费GPU google Colaboratory 上运行 pytorch tensorboard
01google Colab 使用教程 免费GPU google Colaboratory 上运行 pytorch tensorboard