(原)torch7中指定可见的GPU
Posted darkknightzh
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了(原)torch7中指定可见的GPU相关的知识,希望对你有一定的参考价值。
转载请注明出处:
http://www.cnblogs.com/darkknightzh/p/7418694.html
参考网址:
https://gitter.im/torch/torch7/archives/2015/05/21
https://gitter.im/torch/torch7/archives/2015/09/04
在使用tensorflow时,可以指定哪些GPU可见,这样tensorflow在分配内存时,不会把每个gpu都分配内存。
以前使用torch7时,一直是直接th script.lua。但是电脑上有多个gpu时,每个gpu均会占用186M的显存。虽然占用的不多,但是总感觉不爽。
实际上,也可以设置运行torch的lua程序时,哪些gpu可见(默认全部可见)。如下:
CUDA_VISIBLE_DEVICES=2,3 th script.lua
上面GPU编号从0开始,相当于使用电脑中的第三个和第四个GPU(lua默认从1开始)。
程序中在使用cutorch时,GPU由于从1开始,以前使用3,4这两个,加上上面那句话后,程序内部改成1,2这两个GPU即可(加上那句话后,可见的GPU就是1,2了)。
以上是关于(原)torch7中指定可见的GPU的主要内容,如果未能解决你的问题,请参考以下文章
用C语言实现 原字符串中指定的子串的的查找与替换代码?注:一定要有用户自己输入指定子串的那个过程!