使用 cv.fit_transform(corpus).toarray() 的内存错误
Posted
技术标签:
【中文标题】使用 cv.fit_transform(corpus).toarray() 的内存错误【英文标题】:Memory error using cv.fit_transform(corpus).toarray() 【发布时间】:2017-11-07 01:28:36 【问题描述】:如果有人可以帮助 cv.fit_transform(corpus).toarray() 处理大小约为 732066 x
我是这样开始的
# Importing the libraries
import numpy as np
import matplotlib.pyplot as plt
import pandas as pd
# Importing the dataset
cols = ["text","geocoordinates0","geocoordinates1","grid"]
dataset = pd.read_csv('tweets.tsv', delimiter = '\t', usecols=cols, quoting = 3, error_bad_lines=False, low_memory=False)
# Removing Non-ASCII characters
def remove_non_ascii_1(dataset):
return ''.join([i if ord(i) < 128 else ' ' for i in dataset])
# Cleaning the texts
import re
import nltk
nltk.download('stopwords')
from nltk.corpus import stopwords
from nltk.stem.porter import PorterStemmer
corpus = []
for i in range(0, 732066):
review = re.sub('[^a-zA-Z]', ' ', str(dataset['text'][i]))
review = review.lower()
review = review.split()
ps = PorterStemmer()
review = [ps.stem(word) for word in review if not word in set(stopwords.words('english'))]
review = ' '.join(review)
corpus.append(review)
# Creating the Bag of Words model
from sklearn.feature_extraction.text import CountVectorizer
cv = CountVectorizer()
X = cv.fit_transform(corpus).toarray()
y = dataset.iloc[:, 3].values
# Splitting the dataset into the Training set and Test set
from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0)
# Fitting Naive Bayes to the Training set
from sklearn.naive_bayes import GaussianNB
classifier = GaussianNB()
classifier.fit(X_train, y_train)
# Predicting the Test set results
y_pred = classifier.predict(X_test)
# Making the Confusion Matrix
from sklearn.metrics import confusion_matrix
cm = confusion_matrix(y_test, y_pred)
# Applying k-Fold Cross Validation
from sklearn.model_selection import cross_val_score
accuracies = cross_val_score(estimator = classifier, X = X_train, y = y_train, cv = 10)
accuracies.mean()
accuracies.std()
下面是输出错误:
X = cv.fit_transform(corpus).toarray() Traceback(最近调用 最后):
文件“”,第 1 行,在 X = cv.fit_transform(corpus).toarray()
文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\compressed.py", 第 920 行,在 toarray 中 return self.tocoo(copy=False).toarray(order=order, out=out)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\coo.py", 第 252 行,在 toarray 中 B = self._process_toarray_args(order, out)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\scipy\sparse\base.py", 第 1009 行,在 _process_toarray_args return np.zeros(self.shape, dtype=self.dtype, order=order)
内存错误
非常感谢!
PS:按照@Kumar 的建议删除数组列表并使用 MultinomiaNB 后,我现在遇到以下错误:
from sklearn.naive_bayes import MultinomialNB
classifier = MultinomialNB()
classifier.fit(X_train, y_train)
Traceback(最近一次调用最后一次):
文件“”,第 1 行,在 分类器.fit(X_train, y_train)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\naive_bayes.py", 第 566 行,合适 Y = labelbin.fit_transform(y)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\base.py", 第 494 行,在 fit_transform 中 return self.fit(X, **fit_params).transform(X)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\preprocessing\label.py", 第 296 行,合适 self.y_type_ = type_of_target(y)
文件 "C:\Anaconda3\envs\py35\lib\site-packages\sklearn\utils\multiclass.py", 第 275 行,在 type_of_target 中 if (len(np.unique(y)) > 2) 或 (y.ndim >= 2 and len(y[0]) > 1):
文件 "C:\Anaconda3\envs\py35\lib\site-packages\numpy\lib\arraysetops.py", 第 198 行,独特的 ar.sort()
TypeError:不可排序的类型:str() > float()
【问题讨论】:
这个错误是因为 CountVectorizer 的输出是一个稀疏矩阵,当你在它上面调用toarray()
时,它变成了一个普通数组,占用比它的稀疏对应物大得多的内存。为什么要做toarray()
?你能在它下面显示代码吗,我的意思是你在其中发送 X 和 y。大多数估计器都支持稀疏矩阵。
好的,我看到你正在使用 GaussianNB。不幸的是,这似乎不支持稀疏矩阵。您使用它有什么具体原因吗?如果没有,那么您可以使用 MultinomialNB 进行分类任务。有关详细信息,请参阅this issue。
我可以使用您提到的 MNB,但在应用 ML 分类器算法之前,我仍然需要将语料库转换为数组来创建词袋。这就是我卡住的地方
不,这就是我要说的。执行X = cv.fit_transform(corpus)
,并在以下所有代码中使用 X。就训练而言,无需从中创建数组。即使在测试期间,您也可以使用稀疏矩阵。
@Kumar 为了清楚起见,请您发布您修改后的代码版本作为问题的答案。谢谢
【参考方案1】:
我的意思是,删除 .toarray()
并将 GaussianNB 替换为 MultinomialNB。
....
....
# Other code
....
....
X = cv.fit_transform(corpus)
y = dataset.iloc[:, 3].values
# Splitting the dataset into the Training set and Test set
from sklearn.cross_validation import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.20, random_state = 0)
# Fitting Naive Bayes to the Training set
from sklearn.naive_bayes import MultinomialNB
classifier = MultinomialNB()
classifier.fit(X_train, y_train)
# Predicting the Test set results
y_pred = classifier.predict(X_test)
....
....
# Other code
【讨论】:
@Kumar 对此表示感谢,但是,我现在有另一个错误文件“C:\Anaconda3\envs\py35\lib\site-packages\numpy\lib\arraysetops.py”,第 198 行,在unique ar.sort() TypeError: unorderable types: str() > float() @SeunAJAO 你能发布完整的错误堆栈跟踪吗?它在哪一行? 我在上面的问题中添加了错误堆栈跟踪作为后置脚本(评论太长) @Kumar 我刚刚查看了数据集,我似乎遇到了 y 输出标签的问题 - 见上图。我想这是分类器错误的根源。我会正确清理数据集感谢您的帮助伙伴:)以上是关于使用 cv.fit_transform(corpus).toarray() 的内存错误的主要内容,如果未能解决你的问题,请参考以下文章
在使用加载数据流步骤的猪中,使用(使用 PigStorage)和不使用它有啥区别?