CUDA 学习(十三)全局内存

Posted tiemaxiaosu

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了CUDA 学习(十三)全局内存相关的知识,希望对你有一定的参考价值。

一、概述

       GPU的全局内存之所以是全局的,主要是因为GPU与CPU都可以对它进行写操作。任何设备都可以通过PCI-E总线对其进行访问。GPU之间不通过CPU,直接将数据从一块GPU卡上的数据传输到另一个GPU卡上。

        CPU主机端处理器可以通过以下三种方式对GPU上的内存进行访问:

       (1)显式地阻塞传输

       (2)显式地非阻塞传输

       (3)隐式的使用零内存复制。

       GPU 的内存位于PCI-E 总线的另一端。PCI-E 总线是双向总线,理论上,每个方向的带宽最高可达8GB/s,但实际上通常只有4GB/s~5GB/s。

      通常的执行模型是CPU将一个数据块传输到GPU,GPU内核对其进行处理,然后再由CPU将数据块传输回主机端内存中。














以上是关于CUDA 学习(十三)全局内存的主要内容,如果未能解决你的问题,请参考以下文章

CUDA 学习常量内存

深度学习部署(十三): CUDA RunTime API thread_layout线程布局

CUDA 全局内存,它在哪里?

CUDA 中的常量内存、纹理内存和全局内存

CUDA 学习(十七)优化策略2:内存因素

CUDA纹理内存绑定全局内存的子部分