google colab 使用本地运行时并且未检测到本地 gpu
Posted
技术标签:
【中文标题】google colab 使用本地运行时并且未检测到本地 gpu【英文标题】:google colab using local runtime and doesn't detect local gpu 【发布时间】:2021-12-12 19:52:14 【问题描述】:Google colab 已连接到本地运行时
使用以下步骤配置本地 GPU 设置:
编辑 -> 笔记本设置 -> 硬件加速器 (GPU)
运行时 -> 更改运行时类型 -> 硬件加速器 (GPU)
已连接(本地)
然后使用以下代码检查在本地运行时运行的 colab 是否使用本地 GPU
import torch
torch.cuda.is_available()
以上语句返回False
注意:本地计算机系统使用 NVDIA GeForce 940M GPU
【问题讨论】:
【参考方案1】:根据Pytorch tutorial for Vulkan backend,
Pytorch 默认不包含 Vulkan 后端。
为了将 PyTorch 与 Vulkan 后端一起使用,您需要使用附加设置从源代码构建它。也许你最好在本地而不是 Colab 这样做。
Pytorch 已经支持 CUDA 和其他 GPU 加速器,因此除非您打算在项目中使用它进行推理,否则最好直接使用它。
如果您确实打算使用 Vulkan 后端,这个 github 项目有一个 DockerFile 和构建 Pytorch 所需的所有脚本以及 Pytorch-android .aar 文件
Github Pytorch Android Example
【讨论】:
以上是关于google colab 使用本地运行时并且未检测到本地 gpu的主要内容,如果未能解决你的问题,请参考以下文章
Google Colab 中的本地运行时和托管运行时有啥区别?
Colab / Google Cloud SDK - 本地运行时总是“忙” - 无法重新启动
使用 GPU 连接到本地运行时 google colab 需要 tensorflow-gpu?