使用 cv.fit_transform(corpus).toarray() 的内存错误

Posted

技术标签:

【中文标题】使用 cv.fit_transform(corpus).toarray() 的内存错误【英文标题】:Memory error using cv.fit_transform(corpus).toarray() 【发布时间】:2017-11-07 01:28:36 【问题描述】:

如果有人可以帮助 cv.fit_transform(corpus).toarray() 处理大小约为 732066 x

我是这样开始的

# Importing the libraries
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd


# Importing the dataset
cols = ["text","geocoordinates0","geocoordinates1","grid"]
dataset = pd.read_csv('tweets.tsv', delimiter = '\t', usecols=cols, quoting = 3, error_bad_lines=False, low_memory=False)

# Removing Non-ASCII characters
def remove_non_ascii_1(dataset):
    return ''.join([i if ord(i) < 128 else ' ' for i in dataset])

# Cleaning the texts
import re
import nltk
nltk.download('stopwords')
from nltk.corpus import stopwords
from nltk.stem.porter import PorterStemmer
corpus = []
for i in range(0, 732066):
    review = re.sub('[^a-zA-Z]', ' ', str(dataset['text'][i]))
    review = review.lower()
    review = review.split()
    ps = PorterStemmer()
    review = [ps.stem(word) for word in review if not word in set(stopwords.words('english'))]
    review = ' '.join(review)
    corpus.append(review)

# Creating the Bag of Words model
from sklearn.feature_extraction.text import CountVectorizer
cv = CountVectorizer()
X = cv.fit_transform(corpus).toarray()
y = dataset.iloc[:, 3].values

# Splitting the dataset into the Training set and Test set
from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0)

# Fitting Naive Bayes to the Training set
from sklearn.naive_bayes import GaussianNB
classifier = GaussianNB()
classifier.fit(X_train, y_train)

# Predicting the Test set results
y_pred = classifier.predict(X_test)

# Making the Confusion Matrix
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test, y_pred)

# Applying k-Fold Cross Validation
from sklearn.model_selection import cross_val_score
accuracies = cross_val_score(estimator = classifier, X = X_train, y = y_train, cv = 10)
accuracies.mean()
accuracies.std()

下面是输出错误:

X = cv.fit_transform(corpus).toarray() Traceback(最近调用 最后):

文件“”,第 1 行,在 X = cv.fit_transform(corpus).toarray()

文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\compressed.py", 第 920 行,在 toarray 中 return self.tocoo(copy=False).toarray(order=order, out=out)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\coo.py", 第 252 行,在 toarray 中 B = self._process_toarray_args(order, out)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\base.py", 第 1009 行,在 _process_toarray_args return np.zeros(self.shape, dtype=self.dtype, order=order)

内存错误

非常感谢!

PS:按照@Kumar 的建议删除数组列表并使用 MultinomiaNB 后,我现在遇到以下错误:

from sklearn.naive_bayes import MultinomialNB 
classifier = MultinomialNB()
classifier.fit(X_train, y_train)

Traceback(最近一次调用最后一次):

文件“”,第 1 行,在 分类器.fit(X_train, y_train)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\naive_bayes.py", 第 566 行,合适 Y = labelbin.fit_transform(y)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\base.py", 第 494 行,在 fit_transform 中 return self.fit(X, **fit_params).transform(X)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\preprocessing\label.py", 第 296 行,合适 self.y_type_ = type_of_target(y)

文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\utils\multiclass.py", 第 275 行,在 type_of_target 中 if (len(np.unique(y)) > 2) 或 (y.ndim >= 2 and len(y[0]) > 1):

文件 "C:\Anaconda3\envs\py35\lib\site-packages\numpy\lib\arraysetops.py", 第 198 行,独特的 ar.sort()

TypeError:不可排序的类型:str() > float()

【问题讨论】:

这个错误是因为 CountVectorizer 的输出是一个稀疏矩阵,当你在它上面调用 toarray() 时,它变成了一个普通数组,占用比它的稀疏对应物大得多的内存。为什么要做toarray()?你能在它下面显示代码吗,我的意思是你在其中发送 X 和 y。大多数估计器都支持稀疏矩阵。 好的,我看到你正在使用 GaussianNB。不幸的是,这似乎不支持稀疏矩阵。您使用它有什么具体原因吗?如果没有,那么您可以使用 MultinomialNB 进行分类任务。有关详细信息,请参阅this issue。 我可以使用您提到的 MNB,但在应用 ML 分类器算法之前,我仍然需要将语料库转换为数组来创建词袋。这就是我卡住的地方 不,这就是我要说的。执行X = cv.fit_transform(corpus),并在以下所有代码中使用 X。就训练而言,无需从中创建数组。即使在测试期间,您也可以使用稀疏矩阵。 @Kumar 为了清楚起见,请您发布您修改后的代码版本作为问题的答案。谢谢 【参考方案1】:

我的意思是,删除 .toarray() 并将 GaussianNB 替换为 MultinomialNB。

.... 
....
# Other code
....
....

X = cv.fit_transform(corpus)
y = dataset.iloc[:, 3].values

# Splitting the dataset into the Training set and Test set
from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0)

# Fitting Naive Bayes to the Training set
from sklearn.naive_bayes import MultinomialNB
classifier = MultinomialNB()
classifier.fit(X_train, y_train)

# Predicting the Test set results
y_pred = classifier.predict(X_test)

.... 
....
# Other code

【讨论】:

@Kumar 对此表示感谢,但是,我现在有另一个错误文件“C:\Anaconda3\envs\py35\lib\site-packages\numpy\lib\arraysetops.py”,第 198 行,在unique ar.sort() TypeError: unorderable types: str() > float() @SeunAJAO 你能发布完整的错误堆栈跟踪吗?它在哪一行? 我在上面的问题中添加了错误堆栈跟踪作为后置脚本(评论太长) @Kumar 我刚刚查看了数据集,我似乎遇到了 y 输出标签的问题 - 见上图。我想这是分类器错误的根源。我会正确清理数据集感谢您的帮助伙伴:)

以上是关于使用 cv.fit_transform(corpus).toarray() 的内存错误的主要内容,如果未能解决你的问题,请参考以下文章

测试使用

第一篇 用于测试使用

在使用加载数据流步骤的猪中,使用(使用 PigStorage)和不使用它有啥区别?

今目标使用教程 今目标任务使用篇

Qt静态编译时使用OpenSSL有三种方式(不使用,动态使用,静态使用,默认是动态使用)

MySQL db 在按日期排序时使用“使用位置;使用临时;使用文件排序”