使用和不使用 GPU 进行编程的语法差异?
Posted
技术标签:
【中文标题】使用和不使用 GPU 进行编程的语法差异?【英文标题】:Syntax difference for programming with and without GPU? 【发布时间】:2019-07-20 16:06:32 【问题描述】:我是深度学习的新手。我试图在 CPU 上运行 python 的深度学习代码,它工作正常,但相同的代码在带有 gpu 的 tensorflow 上不起作用。使用 GPU 是否有深度学习的语法差异。如果语法不同,那么任何开始的材料都会有所帮助,谢谢。下面是在 CPU 上运行的用于二进制分类的简单代码,如果我想在 GPU 上运行它,我应该进行哪些必要的更改?
# Importing the Keras libraries and packages
from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
# Initialising the CNN
classifier = Sequential()
# Step 1 - Convolution
classifier.add(Convolution2D(32, (3, 3), input_shape = (64, 64, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
#classifier.add(MaxPooling2D(pool_size = (2, 2)))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
'''
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
classifier.add(Convolution2D(512, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
'''
# Step 3 - Flattening
classifier.add(Flatten())
# Step 4 - Full connection
classifier.add(Dense(units = 256, activation = 'relu'))
classifier.add(Dense(units = 1, activation = 'sigmoid'))
# Compiling the CNN
classifier.compile(optimizer = 'adam', loss = 'binary_crossentropy', metrics = ['accuracy'])
# Part 2 - Fitting the CNN to the images
from keras.preprocessing.image import ImageDataGenerator
train_datagen = ImageDataGenerator(rescale = 1./255,
featurewise_center=True,
featurewise_std_normalization=True,
rotation_range=20,
width_shift_range=0.05,
height_shift_range=0.05,
shear_range = 0.05,
zoom_range = 0.05,
horizontal_flip = True)
test_datagen = ImageDataGenerator(rescale = 1./255)
training_set = train_datagen.flow_from_directory('Data_base/Processing_Data/Training',
target_size = (64, 64),
batch_size = 20,
class_mode = 'binary')
test_set = test_datagen.flow_from_directory('Data_base/Processing_Data/Test',
target_size = (64, 64),
batch_size = 6,
class_mode = 'binary')
classifier.fit_generator(training_set,
samples_per_epoch =44 ,
nb_epoch = 20,
validation_data = test_set,
nb_val_samples =6 )
classifier.save_weights('first_try.h5')
【问题讨论】:
您需要分享您的代码,以便其他人可以帮助您。分享您得到的结果,以及它们与您的预期有何不同。请具体说明您发现语法的哪些部分具有挑战性。如果您不花时间仔细解释您的问题,没有人可以帮助您。 我只是在问一个一般性问题。如果算法是使用 tensorflow 为深度学习的 CPU 编写的,是否需要更改语法才能在带有 gpu 的 tensorflow 上运行? 我已经分享了代码并重新表述了我的问题。 您可能会感兴趣:***.com/questions/45662253/… 和 tensorflow.org/guide/using_gpu 您应该包括您遇到的错误,在 CPU/GPU 中运行通常不需要更改代码。 【参考方案1】:您根本不需要对代码进行任何更改。
首先,如果您想使用 GPU,请确保您安装了 CUDA 和 cuDNN。您需要的版本取决于您的 GPU 和 TensorFlow 版本。有几个教程。
其次,不要在同一环境中安装 tensorflow 和 tensorflow-gpu。至少对我来说,这导致了一些奇怪的错误。(我不知道这是否已经修复。)
【讨论】:
以上是关于使用和不使用 GPU 进行编程的语法差异?的主要内容,如果未能解决你的问题,请参考以下文章