pyspark,逻辑回归,如何获得各个特征的系数

Posted

技术标签:

【中文标题】pyspark,逻辑回归,如何获得各个特征的系数【英文标题】:pyspark, logistic regression, how to get coefficient of respective features 【发布时间】:2016-05-03 03:42:37 【问题描述】:

我是 Spark 的新手,我当前的版本是 1.3.1。我想用PySpark实现逻辑回归,所以,我从Spark Python MLlib找到了这个例子

from pyspark.mllib.classification import LogisticRegressionWithLBFGS
from pyspark.mllib.regression import LabeledPoint
from numpy import array

# Load and parse the data
def parsePoint(line):
    values = [float(x) for x in line.split(' ')]
    return LabeledPoint(values[0], values[1:])

data = sc.textFile("data/mllib/sample_svm_data.txt")
parsedData = data.map(parsePoint)

# Build the model
model = LogisticRegressionWithLBFGS.train(parsedData)

# Evaluating the model on training data
labelsAndPreds = parsedData.map(lambda p: (p.label, model.predict(p.features)))
trainErr = labelsAndPreds.filter(lambda (v, p): v != p).count() / float(parsedData.count())
print("Training Error = " + str(trainErr))

我发现model的属性是:

In [21]: model.<TAB>
model.clearThreshold  model.predict         model.weights
model.intercept       model.setThreshold  

如何获得逻辑回归的系数?

【问题讨论】:

【参考方案1】:

如您所见,获取系数的方法是使用LogisticRegressionModel 的属性。

参数:

权重 – 为每个特征计算的权重。

intercept – 为此模型计算的截距。 (仅用于二元 Logistic 回归。在多项 Logistic 回归中, 拦截不会是单个值,因此拦截将是一部分 权重。)

numFeatures – 特征的维度。

numClasses – 多项 Logistic 回归中 k 类分类问题的可能结果数。默认情况下, 它是二元逻辑回归,因此 numClasses 将设置为 2。

不要忘记hθ(x) = 1 / exp ^ -(θ0 + θ1 * x1 + ... + θn * xn),其中θ0代表intercept[θ1,...,θn]weights,特征数量为n

编辑

如您所见,这是预测的完成方式,您可以查看LogisticRegressionModel 的来源。

def predict(self, x):
    """
    Predict values for a single data point or an RDD of points
    using the model trained.
    """
    if isinstance(x, RDD):
        return x.map(lambda v: self.predict(v))

    x = _convert_to_vector(x)
    if self.numClasses == 2:
        margin = self.weights.dot(x) + self._intercept
        if margin > 0:
            prob = 1 / (1 + exp(-margin))
        else:
            exp_margin = exp(margin)
            prob = exp_margin / (1 + exp_margin)
        if self._threshold is None:
            return prob
        else:
            return 1 if prob > self._threshold else 0
    else:
        best_class = 0
        max_margin = 0.0
        if x.size + 1 == self._dataWithBiasSize:
            for i in range(0, self._numClasses - 1):
                margin = x.dot(self._weightsMatrix[i][0:x.size]) + \
                    self._weightsMatrix[i][x.size]
                if margin > max_margin:
                    max_margin = margin
                    best_class = i + 1
        else:
            for i in range(0, self._numClasses - 1):
                margin = x.dot(self._weightsMatrix[i])
                if margin > max_margin:
                    max_margin = margin
                    best_class = i + 1
        return best_class

【讨论】:

谢谢,但是这个演示的系数与其他python库不同。可能预处理方法或优化方法不同。【参考方案2】:

我正在使用

model.coefficients

它有效!

文档:

https://spark.apache.org/docs/2.4.5/api/python/pyspark.ml.html?highlight=coefficients#pyspark.ml.classification.LogisticRegressionModel.coefficients

【讨论】:

以上是关于pyspark,逻辑回归,如何获得各个特征的系数的主要内容,如果未能解决你的问题,请参考以下文章

如何获得逻辑回归特征对特定预测的相对重要性?

当特征系数的符号在逻辑回归中发生变化时,如何根据特征系数做出决策/解释结果?

如何获得多项逻辑回归的系数?

如何获得欧洲防风多项逻辑回归模型的系数?

如何使用 PySpark 测量逻辑回归的精度和召回率?

《机器学习实战》之逻辑回归--基于Python3--02