使用和不使用 GPU 进行编程的语法差异?

Posted

技术标签:

【中文标题】使用和不使用 GPU 进行编程的语法差异?【英文标题】:Syntax difference for programming with and without GPU? 【发布时间】:2019-07-20 16:06:32 【问题描述】:

我是深度学习的新手。我试图在 CPU 上运行 python 的深度学习代码,它工作正常,但相同的代码在带有 gpu 的 tensorflow 上不起作用。使用 GPU 是否有深度学习的语法差异。如果语法不同,那么任何开始的材料都会有所帮助,谢谢。下面是在 CPU 上运行的用于二进制分类的简单代码,如果我想在 GPU 上运行它,我应该进行哪些必要的更改?

# Importing the Keras libraries and packages
from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense

# Initialising the CNN
classifier = Sequential()

# Step 1 - Convolution
classifier.add(Convolution2D(32, (3, 3), input_shape = (64, 64, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(32, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
#classifier.add(MaxPooling2D(pool_size = (2, 2)))

classifier.add(Convolution2D(64, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(64, (3, 3),dilation_rate=(4,4), activation = 'relu', ))



classifier.add(Convolution2D(128, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(128, (3, 3),dilation_rate=(4,4), activation = 'relu', ))


classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(4,4), activation = 'relu', ))

'''
classifier.add(Convolution2D(256, (3, 3),dilation_rate=(1,1), activation = 'relu', ))

#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(512, (3, 3),dilation_rate=(4,4), activation = 'relu', ))

classifier.add(Convolution2D(512, (3, 3),dilation_rate=(1,1), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(2,2), activation = 'relu', ))
#classifier.add(Convolution2D(1024, (3, 3),dilation_rate=(4,4), activation = 'relu', ))
'''

# Step 3 - Flattening
classifier.add(Flatten())

# Step 4 - Full connection
classifier.add(Dense(units = 256, activation = 'relu'))
classifier.add(Dense(units = 1, activation = 'sigmoid'))

# Compiling the CNN
classifier.compile(optimizer = 'adam', loss = 'binary_crossentropy', metrics = ['accuracy'])

# Part 2 - Fitting the CNN to the images

from keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(rescale = 1./255,
                                    featurewise_center=True,
                                    featurewise_std_normalization=True,
                                    rotation_range=20,
                                    width_shift_range=0.05,
                                    height_shift_range=0.05,
                                    shear_range = 0.05,
                                    zoom_range = 0.05,
                                    horizontal_flip = True)

test_datagen = ImageDataGenerator(rescale = 1./255)

training_set = train_datagen.flow_from_directory('Data_base/Processing_Data/Training',
                                                 target_size = (64, 64),
                                                 batch_size = 20,
                                                 class_mode = 'binary')

test_set = test_datagen.flow_from_directory('Data_base/Processing_Data/Test',
                                            target_size = (64, 64),
                                            batch_size = 6,
                                            class_mode = 'binary')

classifier.fit_generator(training_set,
                         samples_per_epoch =44 ,
                         nb_epoch = 20,
                         validation_data = test_set,
                         nb_val_samples =6 )
classifier.save_weights('first_try.h5')

【问题讨论】:

您需要分享您的代码,以便其他人可以帮助您。分享您得到的结果,以及它们与您的预期有何不同。请具体说明您发现语法的哪些部分具有挑战性。如果您不花时间仔细解释您的问题,没有人可以帮助您。 我只是在问一个一般性问题。如果算法是使用 tensorflow 为深度学习的 CPU 编写的,是否需要更改语法才能在带有 gpu 的 tensorflow 上运行? 我已经分享了代码并重新表述了我的问题。 您可能会感兴趣:***.com/questions/45662253/… 和 tensorflow.org/guide/using_gpu 您应该包括您遇到的错误,在 CPU/GPU 中运行通常不需要更改代码。 【参考方案1】:

您根本不需要对代码进行任何更改。

首先,如果您想使用 GPU,请确保您安装了 CUDA 和 cuDNN。您需要的版本取决于您的 GPU 和 TensorFlow 版本。有几个教程。

其次,不要在同一环境中安装 tensorflow 和 tensorflow-gpu。至少对我来说,这导致了一些奇怪的错误。(我不知道这是否已经修复。)

【讨论】:

以上是关于使用和不使用 GPU 进行编程的语法差异?的主要内容,如果未能解决你的问题,请参考以下文章

OpenCL 编译器之间的语法差异 [关闭]

消除差异性的方案

使用 cpu 与 gpu 进行训练的 pytorch 模型精度之间的巨大差异

Python编程基础语法,你了解吗?

Kotlin VS Java:基本语法差异

GPU CPU在绘图方面的差异