Google Colab 无法访问云端硬盘内容

Posted

技术标签:

【中文标题】Google Colab 无法访问云端硬盘内容【英文标题】:Google Colab can't access drive content 【发布时间】:2019-06-13 14:39:32 【问题描述】:

即使我将我的 Google Drive(以及其中的数据集)定义为 google colab,但是当我运行我的代码时,我给出了这个错误:FileNotFoundError: [Errno 2] No such file or directory: 'content/drive/My Drive /....

我已经在 google colab 中定义了 google drive,我可以通过 google colab 访问它,但是当我运行我的代码时,我给出了这个错误

from keras.models import Sequential
from keras.layers import Convolution2D
from keras.layers import MaxPooling2D
from keras.layers import Flatten
from keras.layers import Dense
model=Sequential()
model.add(Convolution2D(32,3,3,input_shape=(64,64,3),activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Convolution2D(32,3,3,activation='relu'))
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Flatten())
model.add(Dense(output_dim=128,activation='relu'))
model.add(Dense(output_dim=1,activation='sigmoid'))
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy'])

from keras.preprocessing.image import ImageDataGenerator
train_datagen=ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)
test_datagen=ImageDataGenerator(rescale=1./255)

training_set=train_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/training_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')
test_set=test_datagen.flow_from_directory(
    directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',
    target_size=(64,64),
    batch_size=32,
    class_mode='binary')

#train
model.fit_generator(
    training_set,
    samples_per_epoch=8000,
    nb_epoch=2,
    validation_data=test_set,
    nb_val_samples=1000)

import numpy as np
from keras.preprocessing import image
test_image=image.load_img('sunn.jpg',target_size=(64,64))
test_image=image.img_to_array(test_image)
test_image=np.expand_dims(test_image,axis=0)
result=model.predict(test_image)
training_set.class_indices
if result[0][0] >= 0.5:
    prediction='dog'
else:
    prediction='cat'
print(prediction)

【问题讨论】:

【参考方案1】:

挂载后,进入数据集文件夹。

cd content/drive/My Drive/Convolutional_Neural_Networks/dataset/

不要使用 !。 然后将你的目录设置为./training_set

【讨论】:

您能解释一下为什么会这样吗?我想 !为了执行 cd 之类的 bash 命令是必要的? 我遇到了同样的问题,所以尝试删除 !这有效。如果你注意到了,你只能在一个单元格中放上 bash 命令。我相信这就是 colab 的 jupyter notebook 的工作原理。 是的,您可以在每个单元格中使用一个 bash 命令,而无需使用 !。【参考方案2】:

我认为您在 /content/drive... 路径中缺少前导 /

通常通过以下方式挂载您的云端硬盘文件

from google.colab import drive
drive.mount('/content/drive')

https://colab.research.google.com/notebooks/io.ipynb#scrollTo=u22w3BFiOveA

【讨论】:

【参考方案3】:

我一直在尝试,对于那些好奇的人来说,我无法将目录中的流与谷歌驱动器内的文件夹一起使用。协作文件环境不读取路径并给出“文件夹不存在”错误。我一直在尝试解决问题并搜索堆栈,类似的问题已发布在这里 Google collaborative 和这里 Deep learnin on Google Colab: loading large image dataset is very long, how to accelerate the process? ,没有有效的解决方案,出于某种原因,许多人对提出问题的人投了反对票。

我发现在 google colab 中读取 20k 张图片的唯一解决方案是上传它们然后处理它们,这样做浪费了两个可悲的小时。这是有道理的,谷歌用 ids 识别驱动器内的东西,从目录流要求它同时识别数据集和具有文件夹绝对路径的类,与谷歌驱动器识别方法不兼容。替代方案可能是使用谷歌云环境而不是我想并付费。我们免费获得了很多。这是我新手对情况的理解,如有错误请指正。

edit1:我能够在 google collab 上使用目录中的流,google 确实也使用路径识别事物,问题是如果你使用 os.getcwd(),它不能正常工作,如果你使用它会告诉您当前工作目录是“/content”,而实际上是“/content/drive/My Drive/foldersinsideyourdrive/...../folderthathasyourcollabnotebook/。如果您在 traingenerator 中更改路径,使其包含这个设置,并忽略操作系统,它可以工作。但是,即使使用目录中的流,内存也有问题,无论如何都无法训练我的 cnn,但可能只是发生在我身上。

【讨论】:

【参考方案4】:

从 google.colab 导入驱动器 drive.mount('/content/drive')

使用上面的代码,您可以在 colab 中加载您的驱动器, 何时加载图像使用:

directory='drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',

不是这个:

directory='content/drive/My Drive/Convolutional_Neural_Networks/dataset/test_set',

对于 keras imagedatagenerator 数据集 strcut:


【讨论】:

【参考方案5】:

所以,我从 Colab 的默认命令开始

from google.colab import drive
drive.mount('/gdrive', force_remount=True)

我所做的主要改变就在这里

img_width, img_height = 64, 64
train_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/training_set'
validation_data_dir = '/gdrive/My Drive/Colab Notebooks/dataset/test_set'

from tensorflow.keras.preprocessing.image import ImageDataGenerator

train_datagen = ImageDataGenerator(
    rescale=1./255,
    shear_range=0.2,
    zoom_range=0.2,
    horizontal_flip=True)

test_datagen = ImageDataGenerator(rescale=1./255)

train_generator = train_datagen.flow_from_directory(
 train_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

validation_generator = test_datagen.flow_from_directory(
 validation_data_dir,
 target_size=(64, 64),
 batch_size=32,
 class_mode='binary')

classifier.fit_generator(
 train_generator,
 steps_per_epoch=8000, # Number of images in train set
 epochs=25,
 validation_data=validation_generator,
 validation_steps=2000)

这对我有用,我希望这对某人有所帮助。 附:忽略缩进。

【讨论】:

【参考方案6】:

由于某种原因,您必须 %cd 进入您的 google 驱动器文件夹,然后执行您的代码才能访问驱动器中的文件或在那里写入文件。

首先安装你的谷歌驱动器:

from google.colab import drive
drive.mount('/gdrive', force_remount=True)

然后 cd 进入你的谷歌驱动器,然后运行你的代码:

%cd /content/drive/My\ Drive/
directory='./Convolutional_Neural_Networks/dataset/training_set'

【讨论】:

【参考方案7】:

尝试删除“内容”,经过 1 小时的故障排除后,它对我有用

cd drive/My Drive/dissertation

【讨论】:

以上是关于Google Colab 无法访问云端硬盘内容的主要内容,如果未能解决你的问题,请参考以下文章

将多标签图像从云端硬盘上传到 Google Colab

google 云端硬盘中的文件无法下载

Google云端硬盘访问 - 服务帐户或OAuth - 读取/写入用户文件

Google Colab无法访问驱动器内容

无法为Google云端硬盘创建令牌目录

未找到 Google 云端硬盘页面 - 抱歉,目前无法打开文件