使用 Scikit-learn 计算信息增益
Posted
技术标签:
【中文标题】使用 Scikit-learn 计算信息增益【英文标题】:Information Gain calculation with Scikit-learn 【发布时间】:2018-03-26 22:22:03 【问题描述】:我正在使用 Scikit-learn 进行文本分类。我想针对(稀疏)文档术语矩阵中的一个类计算每个属性的信息增益。
信息增益定义为H(Class) - H(Class | Attribute)
,其中H
是熵。
使用 weka,这可以通过 InfoGainAttribute 来完成。但是我在 scikit-learn 中没有找到这个度量。
但是,suggested 上面的信息增益公式与互信息的度量相同。这也符合wikipedia 中的定义。
是否可以在 scikit-learn 中使用特定的互信息设置来完成这项任务?
【问题讨论】:
信息增益和互信息不一样。本文的表 7 说明了这一点:pdfs.semanticscholar.org/6ad8/… 【参考方案1】:你可以使用 scikit-learn 的mutual_info_classif
这是一个例子
from sklearn.datasets import fetch_20newsgroups
from sklearn.feature_selection import mutual_info_classif
from sklearn.feature_extraction.text import CountVectorizer
categories = ['talk.religion.misc',
'comp.graphics', 'sci.space']
newsgroups_train = fetch_20newsgroups(subset='train',
categories=categories)
X, Y = newsgroups_train.data, newsgroups_train.target
cv = CountVectorizer(max_df=0.95, min_df=2,
max_features=10000,
stop_words='english')
X_vec = cv.fit_transform(X)
res = dict(zip(cv.get_feature_names(),
mutual_info_classif(X_vec, Y, discrete_features=True)
))
print(res)
这将输出每个属性的字典,即词汇表中的项目作为键,它们的信息增益作为值
这里是输出示例
'bible': 0.072327479595571439,
'christ': 0.057293733680219089,
'christian': 0.12862867565281702,
'christians': 0.068511328611810071,
'file': 0.048056478042481157,
'god': 0.12252523919766867,
'gov': 0.053547274485785577,
'graphics': 0.13044709565039875,
'jesus': 0.09245436105573257,
'launch': 0.059882179387444862,
'moon': 0.064977781072557236,
'morality': 0.050235104394123153,
'nasa': 0.11146392824624819,
'orbit': 0.087254803670582998,
'people': 0.068118370234354936,
'prb': 0.049176995204404481,
'religion': 0.067695617096125316,
'shuttle': 0.053440976618359261,
'space': 0.20115901737978983,
'thanks': 0.060202010019767334
【讨论】:
这是信息增益还是相互信息增益?他们一样吗? @sgDysregulation 在上面的代码中,如果我在对文本进行矢量化时保持'binary=True',则会得到不同的互信息结果。理想情况下,分类变量的互信息仅基于存在或不正确,而与计数无关?【参考方案2】:这是我使用 pandas 计算信息增益的建议:
from scipy.stats import entropy
import pandas as pd
def information_gain(members, split):
'''
Measures the reduction in entropy after the split
:param v: Pandas Series of the members
:param split:
:return:
'''
entropy_before = entropy(members.value_counts(normalize=True))
split.name = 'split'
members.name = 'members'
grouped_distrib = members.groupby(split) \
.value_counts(normalize=True) \
.reset_index(name='count') \
.pivot_table(index='split', columns='members', values='count').fillna(0)
entropy_after = entropy(grouped_distrib, axis=1)
entropy_after *= split.value_counts(sort=False, normalize=True)
return entropy_before - entropy_after.sum()
members = pd.Series(['yellow','yellow','green','green','blue'])
split = pd.Series([0,0,1,1,0])
print (information_gain(members, split))
【讨论】:
【参考方案3】:使用纯python:
def ig(class_, feature):
classes = set(class_)
Hc = 0
for c in classes:
pc = list(class_).count(c)/len(class_)
Hc += - pc * math.log(pc, 2)
print('Overall Entropy:', Hc)
feature_values = set(feature)
Hc_feature = 0
for feat in feature_values:
pf = list(feature).count(feat)/len(feature)
indices = [i for i in range(len(feature)) if feature[i] == feat]
clasess_of_feat = [class_[i] for i in indices]
for c in classes:
pcf = clasess_of_feat.count(c)/len(clasess_of_feat)
if pcf != 0:
temp_H = - pf * pcf * math.log(pcf, 2)
Hc_feature += temp_H
ig = Hc - Hc_feature
return ig
【讨论】:
以上是关于使用 Scikit-learn 计算信息增益的主要内容,如果未能解决你的问题,请参考以下文章
如何从 scikit-learn DecisionTreeClassifier 获取信息增益?
如何从 scikit-learn DecisionTreeClassifier 获取信息增益?