google colab 使用本地运行时并且未检测到本地 gpu

Posted

技术标签:

【中文标题】google colab 使用本地运行时并且未检测到本地 gpu【英文标题】:google colab using local runtime and doesn't detect local gpu 【发布时间】:2021-12-12 19:52:14 【问题描述】:

Google colab 已连接到本地运行时

使用以下步骤配置本地 GPU 设置:

编辑 -> 笔记本设置 -> 硬件加速器 (GPU)

运行时 -> 更改运行时类型 -> 硬件加速器 (GPU)

已连接(本地)

然后使用以下代码检查在本地运行时运行的 colab 是否使用本地 GPU

import torch
torch.cuda.is_available()

以上语句返回False

注意:本地计算机系统使用 NVDIA GeForce 940M GPU

【问题讨论】:

【参考方案1】:

根据Pytorch tutorial for Vulkan backend,

Pytorch 默认不包含 Vulkan 后端。

为了将 PyTorch 与 Vulkan 后端一起使用,您需要使用附加设置从源代码构建它。也许你最好在本地而不是 Colab 这样做。

Pytorch 已经支持 CUDA 和其他 GPU 加速器,因此除非您打算在项目中使用它进行推理,否则最好直接使用它。

如果您确实打算使用 Vulkan 后端,这个 github 项目有一个 DockerFile 和构建 Pytorch 所需的所有脚本以及 Pytorch-android .aar 文件

Github Pytorch Android Example

【讨论】:

以上是关于google colab 使用本地运行时并且未检测到本地 gpu的主要内容,如果未能解决你的问题,请参考以下文章

Google Colab 中的本地运行时和托管运行时有啥区别?

Colab / Google Cloud SDK - 本地运行时总是“忙” - 无法重新启动

使用 GPU 连接到本地运行时 google colab 需要 tensorflow-gpu?

Google Colab:从本地上传 Pytorch 模型后“无法连接到运行时”

将 Google Colab 与本地运行时连接时出错

TensorBoard Colab UnimplementedError 文件系统方案“[本地]”未实现