cuda 计算力查看

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了cuda 计算力查看相关的知识,希望对你有一定的参考价值。

参考技术A 原文链接: https://www.cnblogs.com/wmr95/articles/8846749.html

序号名称值解释

1Detected 1 CUDA Capable device(s)1检测到1个可用的NVIDIA显卡设备

2Device 0: "GeForce 930M"GeForce 930M当前显卡型号为" GeForce 930M "

3CUDA Driver Version / Runtime Version7.5/7.5CUDA驱动版本

4 CUDA Capability Major/Minor version number 5.0CUDA设备支持的计算架构版本,即计算能力,该值越大越好

5 Total amount of global memory 4096MbytesGlobal memory全局存储器的大小。使用CUDA RUNTIME API调用函数cudaMalloc后,会消耗GPU设备上的存储空间,合理分配和释放空间避免程序出现crash

6 (3) Multiprocessors, (128) CUDA Cores/MP 384 CUDA Cores3个流多处理器(即SM),每个多处理器中包含128个流处理器,共384个CUDA核

7GPU Max Clock rate941 MHzGPU最大频率

8Memory Clock rate900 MHz显存的频率

9Memory Bus Width64-bit

10L2 Cache Size1048576 bytes

11Maximum Texture Dimension Size (x, y, z)1D=(65535)

2D=(65535, 65535)

3D=(4096,4096,4096)

12Maximum Layered 1D Texture Size, (num) layers1D=(16384),2048 layers

13Maximum Layered 2D Texture Size, (num) layers2D=(16384,16384), 2048 layers

14 Total amount of constant memory 65535 bytes常量存储器的大小

15 Total amount of shared memory per block 49152 bytes共享存储器的大小,共享存储器速度比全局存储器快;多处理器上的所有线程块可以同时共享这些存储器

16Total number of registers available per block65535

17 Warp Size 32Warp,线程束,是SM运行的最基本单位,一个线程束含有32个线程

18 Maximum number of threads per multiprocessor 2048一个SM中最多有2048个线程,即一个SM中可以有2048/32=64个线程束Warp

19 Maximum number of threads per block 1024一个线程块最多可用的线程数目

20 Max dimension size of a thread block (x, y, z) (1024,1024,64)ThreadIdx.x<=1024,

ThreadIdx.y<=1024,

ThreadIdx.z<=64

Block内三维中各维度的最大值

21 Max dimension size of a grid size  (x, y, z)(2147483647,65535,65535)Grid内三维中各维度的最大值

22Maximum memory Pitch2147483647 bytes显存访问时对齐时的pitch的最大值

23Texture alignment512 bytes纹理单元访问时对其参数的最大值

24Concurrent copy and kernel executionYes with 1 copy engine(s)

25Run time limit on kernelsYes

26Integrated GPU sharing Host MemoryNo

27Support host page-locked memory mappingYes

28Alignment requirement for SurfacesYes

29Device has ECC supportDisabled

30其他 

Pytorch+CUDA安装方法步骤

首先我们要确定本机是否有独立显卡,在右键点击开始按钮—设备管理器-显示适配器中,查看是否有独立显卡。

可以看到本机有一个集成显卡和独立显卡NVIDIA GetForce GTX 1050
查询显卡是否支持安装CUDA


可以看到我本机的独立显卡是支持CUDA安装的,计算力是6.1。
查看自己独立显卡:
按住WIN+R键在搜索栏找到NOVIDIA control panel。选择左下角的系统信息->显示:

组件:

或者命令行输入:

nvidia-smi

可以看到Driver-Version:456.71,CUDA Version:11.1
注意:
因此安装的CUDA toolkit版本不可超过11.1;Driver-Version不超过456.71。

2、CUDA下载

点进去,按照如下配置选择,然后点击下载:

下载好为如下exe文件

cuda安装
双击“exe文件”,选择下载路径(推荐默认路径)




建议自定义安装

如果是第一次安装,尽量全选;如果是第n次安装,尽量只选择第一个,否则可能会出现错误

注意VS: 如果本机的驱动版本(当前版本)小于cuda对应的版本(新版本),则选择,否则不选。如果当前版本小于新版本,并且不覆盖安装,之后电脑会频繁蓝屏或死机

记住安装位置,tensorflow要求配置环境。


系统变量的三四行有两个路径,是自动生成的


在系统变量中添加:

如果出现字节太长报错,可以利用上面自动生成的路径:
如:

%CUDA_PATH%\\lib\\x64

验证安装:

nvcc --version
#或者
nvcc -V
set cuda

下载同一版本的cudnn
cuDNN地址如下,不过要注意的是,我们需要注册一个账号,才可以进入到下载界面。大家可以放心注册的。
https://developer.nvidia.com/rdp/cudnn-download
可以使用下面网址,查看适配的 cuDNN
cuDNN Archive | NVIDIA Developer
选择跟自己的cuda版本适配的cudnn版本

下载结果是一个压缩包

解压后的文件:

下载后发现其实cudnn不是一个exe文件,而是一个压缩包,解压后,有三个文件夹,把三个文件夹拷贝到cuda的安装目录下。

CUDA 的安装路径在前面截图中有,或者打开电脑的环境变量查看,默认的安装路径如下:

C:\\Program Files\\NVIDIA GPU Computing Toolkit\\CUDA\\v11.0

验证安装是否成功

配置完成后,我们可以验证是否配置成功,主要使用CUDA内置的deviceQuery.exe 和 bandwithTest.exe:

首先win+R启动cmd,cd到安装目录下的 …\\extras\\demo_suite,然后分别执行bandwidthTest.exe和deviceQuery.exe,应该得到下图:


Pytorch安装
建议打开网址:打开网址:https://download.pytorch.org/whl/torch_stable.html,找对应的.whl文件安装,而非pytorch官网通过命令安装:

每个文件命名都是有规律的:

使用快捷键Ctrl+F,搜索我们需要安装的版本文件下载

验证安装:
命令行中依次输入:

python
import torch
print(torch.__version__)
print(torch.cuda.is_available())

如果出现以下界面:则说明安装成功。

如果是fulse则要考虑安装版本的问题,
考虑到首选处理器可能是自动,可以修改首选图形处理器为以下形式:

以上是关于cuda 计算力查看的主要内容,如果未能解决你的问题,请参考以下文章

查看英伟达显卡对CUDA版本的支持

cuda支持的显卡

GPU信息查看以及确认Pytorch使用了GPU计算模块进行深度学习的训练

GPUNvidia CUDA 编程中级教程——数据复制与计算的重叠

GPUNvidia CUDA 编程中级教程——数据复制与计算的重叠

GPUNvidia CUDA 编程中级教程——数据复制与计算的重叠