如何使用 scikit-learn 对文本对进行分类?

Posted

技术标签:

【中文标题】如何使用 scikit-learn 对文本对进行分类?【英文标题】:How to classify text pairs using scikit-learn? 【发布时间】:2017-08-08 05:48:32 【问题描述】:

我已经阅读了许多关于此主题的不同博客,但一直未能找到明确的解决方案。我有以下情况:

    我有一个带有标签 1 或 -1 的文本对列表。 对于每个文本对,我希望特征按以下方式串联:f () = tfidf(t1) "concat" tfidf(t2)

关于如何做同样的任何建议?我有以下代码,但它给出了一个错误:

    count_vect = TfidfVectorizer(analyzer=u'char', ngram_range=ngram_range)
    X0_train_counts = count_vect.fit_transform([x[0] for x in training_documents])
    X1_train_counts = count_vect.fit_transform([x[1] for x in training_documents])
    combined_features = FeatureUnion([("x0", X0_train_counts), ("x1", X1_train_counts)])
    clf = LinearSVC().fit(combined_features, training_target)
    average_training_accuracy += clf.score(combined_features, training_target)

这是我得到的错误:

---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
scoreEdgesUsingClassifier(None, pos, neg, 1,ngram_range=(2,5), max_size=1000000, test_size=100000)

 scoreEdgesUsingClassifier(unc, pos, neg, number_of_iterations, ngram_range, max_size, test_size)
 X0_train_counts = count_vect.fit_transform([x[0] for x in training_documents])
 X1_train_counts = count_vect.fit_transform([x[1] for x in training_documents])
 combined_features = FeatureUnion([("x0", X0_train_counts), ("x1", X1_train_counts)])
 print "Done transforming, now training classifier"

lib/python2.7/site-packages/sklearn/pipeline.pyc in __init__(self, transformer_list, n_jobs, transformer_weights)
616         self.n_jobs = n_jobs
617         self.transformer_weights = transformer_weights
--> 618         self._validate_transformers()
619 
620     def get_params(self, deep=True):

lib/python2.7/site-packages/sklearn/pipeline.pyc in _validate_transformers(self)
660                 raise TypeError("All estimators should implement fit and "
661                                 "transform. '%s' (type %s) doesn't" %
--> 662                                 (t, type(t)))
663 
664     def _iter(self):

TypeError: All estimators should implement fit and transform. '  (0, 49025) 0.0575144797079

 (254741, 38401)    0.184394443164
 (254741, 201747)   0.186080393768
 (254741, 179231)   0.195062580945
 (254741, 156925)   0.211367771299
 (254741, 90026)    0.202458920022' (type <class 'scipy.sparse.csr.csr_matrix'>) doesn't

更新

解决办法如下:

    count_vect = TfidfVectorizer(analyzer=u'char', ngram_range=ngram_range)
    training_docs_combined = [x[0] for x in training_documents] + [x[1] for x in training_documents]        
    X_train_counts = count_vect.fit_transform(training_docs_combined)
    concat_features  = hstack((X_train_counts[0:len(training_docs_combined) / 2 ], X_train_counts[len (training_docs_combined) / 2:]))

    clf = LinearSVC().fit(concat_features, training_target)
    average_training_accuracy += clf.score(concat_features, training_target)

【问题讨论】:

标签是一对文本,而不是一个文本?你遇到了什么错误? 我输入了错误。 ;是的,标签是一对。 【参考方案1】:

来自 scikit-learn 的FeatureUnion 将输入估计器,而不是数据数组作为输入。

您可以简单地将生成的X0_train_countsX1_train_counts 数组与scipy.sparse.hstack 连接,或者创建TfidfVectorizer 的两个独立实例,将FeatureUnion 应用于它们,然后调用fit_transform 方法。

【讨论】:

谢谢! hstack 成功了。我已经用解决方案更新了问题。

以上是关于如何使用 scikit-learn 对文本对进行分类?的主要内容,如果未能解决你的问题,请参考以下文章

如何使用 scikit-learn 为机器学习准备文本数据

如何在 scikit-learn 管道中的 CountVectorizer 之前包含 SimpleImputer?

scikit-learn 为机器学习

如何在 scikit-learn 的管道中对变换参数进行网格搜索

使用 scikit-learn 训练线性回归模型后,如何对原始数据集中不存在的新数据点进行预测?

如何在 Flutter 中根据屏幕大小对长文本进行分页