如何在我的代码中使用张量核心而不是 cuda 核心?
Posted
技术标签:
【中文标题】如何在我的代码中使用张量核心而不是 cuda 核心?【英文标题】:How to use tensor cores instead of cuda cores in my code? 【发布时间】:2020-01-09 00:44:34 【问题描述】:我有 RTX2070 Nvidia 显卡,上面有张量核心。我想使用张量核心而不是 Cuda 核心来运行我的深度学习代码。这个显卡可以吗?为了做到这一点,我是否应该安装任何特定的驱动程序? 我应该如何检查模型是在张量核心还是 Cuda 核心上运行? 我在 Windows 10 上使用 Keras 框架。
【问题讨论】:
【参考方案1】:根据NVIDIA:
容器默认启用 Tensor Core 数学
如果要禁用它,可以将TF_DISABLE_CUDNN_TENSOR_OP_MATH
设置为1
。
【讨论】:
Nvidia 提到了 Volta 和 Tesla 显卡架构,但没有提到他们的 RTX 显卡支持此功能的任何地方。但是,RTX 卡上也有张量核心。 @carobnodrvo @raminkarimian 据我所知,RTX 系列使用图灵微架构,上面的文章提到了The TensorFlow container includes support Tensor Cores starting in Volta’s architecture...
。由于图灵比 Volta 更新,它应该可以工作。以上是关于如何在我的代码中使用张量核心而不是 cuda 核心?的主要内容,如果未能解决你的问题,请参考以下文章