如何在我的代码中使用张量核心而不是 cuda 核心?

Posted

技术标签:

【中文标题】如何在我的代码中使用张量核心而不是 cuda 核心?【英文标题】:How to use tensor cores instead of cuda cores in my code? 【发布时间】:2020-01-09 00:44:34 【问题描述】:

我有 RTX2070 Nvidia 显卡,上面有张量核心。我想使用张量核心而不是 Cuda 核心来运行我的深度学习代码。这个显卡可以吗?为了做到这一点,我是否应该安装任何特定的驱动程序? 我应该如何检查模型是在张量核心还是 Cuda 核心上运行? 我在 Windows 10 上使用 Keras 框架。

【问题讨论】:

【参考方案1】:

根据NVIDIA:

容器默认启用 Tensor Core 数学

如果要禁用它,可以将TF_DISABLE_CUDNN_TENSOR_OP_MATH 设置为1

【讨论】:

Nvidia 提到了 Volta 和 Tesla 显卡架构,但没有提到他们的 RTX 显卡支持此功能的任何地方。但是,RTX 卡上也有张量核心。 @carobnodrvo @raminkarimian 据我所知,RTX 系列使用图灵微架构,上面的文章提到了The TensorFlow container includes support Tensor Cores starting in Volta’s architecture...。由于图灵比 Volta 更新,它应该可以工作。

以上是关于如何在我的代码中使用张量核心而不是 cuda 核心?的主要内容,如果未能解决你的问题,请参考以下文章

Nvidia Tesla T4 张量核心基准测试 [关闭]

测量 NVIDIA 张量核心加速

如何在 Pytorch 中检查张量是不是在 cuda 上?

Spark:以编程方式获取集群核心数

有没有办法建邮件核心的库,而不是直接把项目拖到我的项目中

如何在 pytorch 和 tensorflow 中使用张量核心?