显存与显卡的内存大小有关吗?
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了显存与显卡的内存大小有关吗?相关的知识,希望对你有一定的参考价值。
先说一句,显存就是显卡的内存,显卡有显存位宽和显存之分,没有什么显存和显卡的内存之分显存,也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。我们在显示屏上看到的画面是由一个个的像素点构成的,而每个像素点都以4至32甚至64位的数据来控制它的亮度和色彩,这些数据必须通过显存来保存,再交由显示芯片和CPU调配,最后把运算结果转化为图形输出到显示器上。显存和主板内存一样,执行存贮的功能,但它存贮的对像是显卡输出到显示器上的每个像素的信息。显存是显卡非常重要的组成部分,显示芯片处理完数据后会将数据保存到显存中,然后由RAMDAC(数模转换器)从显存中读取出数据并将数字信号转换为模拟信号,最后由屏幕显示出来。在高级的图形加速卡中,显存不仅用来存储图形数据,而且还被显示芯片用来进行3D函数运算。在nVIDIA等高级显示芯片中,已发展出和CPU平行的“GPU”(图形处理单元)。“T&&L”(变形和照明)等高密度运算由GPU在显卡上完成,由此更加重了对显存的依赖。由于显存在显卡上所起的作用,显然显存的速度和带宽直接影响到显卡的整体速度。显存作为存贮器也和主板内存一样经历了多个发展阶段,甚至可以说显存的发展比主板内存更为活跃,并有着更多的品种和类型。现在被广泛使用的显存类型是SDRAM和SGRAM,从去年开始,性能更加优异的DDR内存首先被应用到显卡上,促进了显卡整体性能的提高。DDR以在显卡上的成功为先导,全面发展到了主板系统,现在,一个DDR“独领风骚三两年”的时代即将呈现在世人面前。
显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位显存。 参考技术A 显存与显卡的内存大小是有一定关系的。板载显卡是要占用主机内存的。独立显卡分为三种情况:一是独立显存可以在显卡上查到的;二是tc显存是要占用主机内存的;三是显存可以在cmos里设置增加,根据自己的情况而定,所以开机显示的显存会大于实际内存。 参考技术B 显卡不是需要显存吗,通常是有板载显存,但使用了这个技术就可以额外使用内存来当做显存用,就好比虚拟内存是拿硬盘一定容量当内存用一样。
不过起初这个技术是用于集成显卡,因为是集成,所以必须要有内存来当显存,而现在也应用于独显,比如一个显卡上标了TC1G显存,那么可能这个显卡实际内存只有512M,而另外512的显存则是调用内存,虽然这样做不是坏事,但JS喜欢用它来骗小白,不知道的就看显存好大,就买下了,事实上,内存做成的显存性能远不如显卡的板载显存,而且显存也不是一块显卡中最重要的参数。 参考技术C 有关追问
能不能给予详细说明,谢谢了。。。
参考技术D 显存等于显卡的板载内存关于tensorflow的显存占用问题
参考技术A 随便记录下观察结果(也不一定对)如果tensorflow和pytorch 同时初始化在一个GPU中,会导致tensorflow变慢
但是让tensorflow先初始化,问题可能会得到改善
都知道tensorflow如果不限制,会把显存吃满,导致其他框架的模型无法初始化。有个比较奇特的一点,对每一个模型限制内存后 ,两个相同参数量tensorflow模型都初始化完毕后显存占用却和一个差不多,看起来是相同计算框架下面可以共存部分。但是如果不限制,会直接初始化失败,就不能共存。
如果有相关研究比较深入的,望讲解一下,谢谢
以上是关于显存与显卡的内存大小有关吗?的主要内容,如果未能解决你的问题,请参考以下文章