哈工大2022机器学习实验二:逻辑回归

Posted Castria

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了哈工大2022机器学习实验二:逻辑回归相关的知识,希望对你有一定的参考价值。

本实验要求利用逻辑回归(Logistic Regression),对生成的数据进行二分类。首先我们先回顾一下逻辑回归的基本原理:

逻辑回归

逻辑回归,又意译为对率回归(周志华《机器学习》),虽然它的名字中带“回归”,但它是一个分类模型。它的基本思想是直接估计条件概率 P ( Y ∣ X ) P(Y|X) P(YX)的表达式,即给定样本 X = x X=x X=x(这里 x x x是一个 d d d维列向量),其属于类别 Y Y Y的概率(这里研究的是二分类问题, Y Y Y的取值只有 0 , 1 0,1 0,1 1 1 1表示正例, 0 0 0表示反例)。利用贝叶斯公式,可以得到给定样本,其为正例的概率
P ( Y = 1 ∣ X = x ) = P ( X = x ∣ Y = 1 ) P ( Y = 1 ) P ( X = x ) = P ( X = x ∣ Y = 1 ) P ( Y = 1 ) P ( X = x ∣ Y = 1 ) P ( Y = 1 ) + P ( X = x ∣ Y = 0 ) P ( Y = 0 ) = 1 1 + P ( X = x ∣ Y = 0 ) P ( Y = 0 ) P ( X = x ∣ Y = 1 ) P ( Y = 1 ) \\beginalignedP(Y=1|X=x)&= \\frac P(X=x|Y=1)P(Y=1)P(X=x)\\\\ &=\\fracP(X=x|Y=1)P(Y=1)P(X=x|Y=1)P(Y=1)+P(X=x|Y=0)P(Y=0)\\\\ &=\\frac11+\\fracP(X=x|Y=0)P(Y=0)P(X=x|Y=1)P(Y=1)\\\\ \\endaligned P(Y=1∣X=x)=P(X=x)P(X=xY=1)P(Y=1)=P(X=xY=1)P(Y=1)+P(X=xY=0)P(Y=0)P(X=xY=1)P(Y=1)=1+P(X=xY=1)P(Y=1)P(X=xY=0)P(Y=0)1
在这个式子中有两类式子需要我们已知:类别先验 P ( Y = y ) P(Y=y) P(Y=y)和条件分布 P ( X ∣ Y ) P(X|Y) P(XY).这也是逻辑回归做出的最基本假设:

(1)类别先验服从伯努利分布 B ( 1 , p ) , B(1,p), B(1,p),即一个样本有 p p p的概率为正例。
(2)类内样本服从正态分布 N ( μ , Σ ) . N(\\mu,\\Sigma). N(μ,Σ).具体地说,正例样本服从 N ( μ 1 , Σ 1 ) N(\\mu_1,\\Sigma_1) N(μ1,Σ1);反例样本服从 N ( μ 0 , Σ 0 ) N(\\mu_0,\\Sigma_0) N(μ0,Σ0)。特别地,我们要求两类样本的协方差矩阵相同,即 Σ 1 = Σ 0 = Σ . \\Sigma_1=\\Sigma_0=\\Sigma. Σ1=Σ0=Σ.之后我们就都用 Σ \\Sigma Σ这一个符号代表协方差矩阵。

(注: n n n维正态分布 N ( μ , Σ ) N(\\mu,\\Sigma) N(μ,Σ)的概率密度 p ( x ) = 1 ( 2 π ) n / 2 ∣ Σ ∣ 1 / 2 exp ⁡ − 1 2 ( x − μ ) T Σ − 1 ( x − μ ) p(x)=\\frac1(2\\pi)^n/2|\\Sigma|^1/2\\exp\\-\\frac12(x-\\mu)^T\\Sigma^-1(x-\\mu)\\ p(x)=(2π)n/2∣Σ1/21exp21(xμ)TΣ1(xμ)

顺着上面两条假设,我们可以继续推导。我们在这里用正态分布的概率密度来代替概率(这个推导在概率论中不是那么严谨,但概率密度的大小可以一定程度上反映样本分布在该点的概率大小。)
P ( Y = 1 ∣ X = x ) = 1 1 + P ( X = x ∣ Y = 0 ) P ( Y = 0 ) P ( X = x ∣ Y = 1 ) P ( Y = 1 ) = 1 1 + exp ⁡ − 1 2 ( x − μ 0 ) T Σ − 1 ( x − μ 0 ) exp ⁡ − 1 2 ( x − μ 1 ) T Σ − 1 ( x − μ 1 ) ⋅ 1 − p p = 1 1 + exp ⁡ ( μ 0 − μ 1 ) T Σ − 1 x + 1 2 ( μ 1 T Σ − 1 μ 1 − μ 0 T Σ − 1 μ 0 ) ⋅ 1 − p p \\beginalignedP(Y=1|X=x)&=\\frac11+\\fracP(X=x|Y=0)P(Y=0)P(X=x|Y=1)P(Y=1)\\\\ &=\\frac11+\\frac\\exp\\-\\frac12(x-\\mu_0)^T\\Sigma^-1(x-\\mu_0)\\\\exp\\-\\frac12(x-\\mu_1)^T\\Sigma^-1(x-\\mu_1)\\\\cdot\\frac1-pp\\\\ &=\\frac11+\\exp\\(\\mu_0-\\mu_1)^T\\Sigma^-1x+\\frac12(\\mu_1^T\\Sigma^-1\\mu_1-\\mu_0^T\\Sigma^-1\\mu_0)\\\\cdot\\frac1-pp \\endaligned P(Y=1∣X=x)=1+P(X=xY=1)P(Y=1)P(X=xY=0)P(Y=0)1=1+exp21(xμ1)TΣ1(xμ1)exp21(xμ以上是关于哈工大2022机器学习实验二:逻辑回归的主要内容,如果未能解决你的问题,请参考以下文章

哈工大2022机器学习实验一:曲线拟合

机器学习:算法与应用 by XDU 2022冬季课程笔记1:线性回归与逻辑回归

机器学习 | 实验二:多变量线性回归

机器学习二 逻辑回归作业

机器学习二 逻辑回归作业

机器学习二 逻辑回归