机器学习--Logistic回归

Posted 北言

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习--Logistic回归相关的知识,希望对你有一定的参考价值。

logistic回归

很多时候我们需要基于一些样本数据去预测某个事件是否发生,如预测某事件成功与失败,某人当选总统是否成功等。

这个时候我们希望得到的结果是 bool型的,即 true or false

我们最先想到的是通过最小二乘法求出线性回归模型,

即 Y = WTX  = w0x+  w1x+  w2x+ ...  +  wnx 

X表示自变量向量,可以通过随机梯度算法求出上述的系数向量W

此时Y表示线性回归的预测值。

这时存在的问题是:

Y表示的是预测值,但是其可正,可负,可以很大,可以很小,我们无法通过Y得出二进制的结果

为了解决上面的问题,我们可以大胆假设该事件发生的概率的p且 logit(p) = Y

logit(p) 是一个统计学上的模型

由logit (p ) = Y求得

 

画图如下:

 

 我们可以看出,对于任意的Y值,假设的概率值p都分布在[0,1]之间

这样我们可以规定任何p大于0.5的数据被分入1类,小于0.5被归入0类,从而得到bool型的结果

事实证明,上述的logit(p) 模型,在处理这种二分类预测中非常有用

这便是logistic回归

用logistic回归预测实例

 数据集来源:  http://archive.ics.uci.edu/ml/datasets/Haberman%27s+Survival

数据集说明:

该数据集包含了1958年-1970年在芝加哥大学的比林斯医院接受过乳房癌症手术的病人的存活率。数据集样例如下:

 

X1: 手术时病人年龄
X2: 患者手术年(年- 1900年)
X3: 检测阳性腋窝淋巴结数目(数值)
X4: 生存状态(class属性)1--患者活了5年或更长 , 0---病人在5年内死亡。

 求当一个病人的数据为[X1,X2,X3] = [34,66,9]时我们可以通过logistic回归预测病人手术后是否有可能活过5年?

代码

 

 1 # -*- coding:utf-8 -*-
 2 import numpy as np
 3 
 4 def load_data(file_name):
 5     # 载入数据
 6     data_mat = []
 7     labels = []
 8 
 9     with open(file_name) as file:
10         for line in file.readlines():
11             line_arr = line.strip().split(\',\')
12             data_mat.append([float(line_arr[0]), float(line_arr[1]), float(line_arr[2])])
13             labels.append(int(line_arr[3]))
14     return data_mat, labels
15 
16 
17 def sigmoid(x):
18     # 阶跃函数
19     if -x > np.log(np.finfo(type(x)).max):
20         return 0.0
21     else:
22         return 1.0 / (1 + np.exp(-x))
23 
24 
25 def grad_ascent(data_mat, data_labels, num_iter=200):
26     """随机梯度上升算法"""
27     data_mat = np.array(data_mat)
28     m, n = np.shape(data_mat)
29 
30     weights = np.ones(n).astype(np.float)
31     for j in range(num_iter):
32         data_index = list(range(m))
33         for i in range(m):
34             alpha = 0.001 + 4 / (1.0 + j + i)
35 
36             random_index = int(np.random.uniform(0, len(data_index)))
37             h = sigmoid(sum(data_mat[random_index] * weights))
38             error = data_labels[random_index] - h
39             weights = weights + alpha * error * data_mat[random_index]
40             del (data_index[random_index])
41 
42     return weights
43 
44 
45 def test(x, name):
46     file_name = name
47     data_mat, labels = load_data(file_name)
48     weights = grad_ascent(data_mat, labels)
49     print(weights)
50     res = classify_vector(x, weights)
51     print(res)
52 
53 
54 def classify_vector(inx, weights):
55     prob = sigmoid(sum(inx * weights))
56     if prob > 0.5:
57         return 1.0
58     else:
59         return 0.0
60 
61 
62 name = \'data/haberman.txt\'
63 test([72, 63, 0], name)

 

执行结果为 0

说明改病人很可能术后活不过5年。

以上只是logistic 回归的一个简单测试,所有代码已上传 https://github.com/beiyan1911/machine_learning/tree/master/logistic_reg

 

以上是关于机器学习--Logistic回归的主要内容,如果未能解决你的问题,请参考以下文章

Python机器学习(十四)Logistic回归算法原理与代码实现

机器学习实战笔记 logistic回归

《机器学习实战》学习笔记:Logistic 回归

机器学习实战--第五章Logistic回归完整代码及注释

机器学习Logistic回归---学习笔记

机器学习线性回归(最小二乘法/梯度下降法)多项式回归logistic回归softmax回归