机器学习——极大似然估计

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了机器学习——极大似然估计相关的知识,希望对你有一定的参考价值。

1 前言

  • 极大似然估计方法(Maximum Likelihood Estimate,MLE)也称为最大概似估计或最大似然估计,是求估计的另一种方法,极大似然估计是1821年首先由德国数学家高斯(C. F. Gauss)提出,但是这个方法通常被归功于英国的统计学家。罗纳德·费希尔(R. A. Fisher)。
  • 极大似然估计,通俗来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值!
  • 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。假设我们要统计全国人口的身高,首先假设这个身高服从服从正态分布,但是该分布的均值与方差未知。我们没有人力与物力去统计全国每个人的身高,但是可以通过采样,获取部分人的身高,然后通过最大似然估计来获取上述假设中的正态分布的均值与方差。
  • 最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的。

2 求解步骤及例子

2.1 一般步骤  

  求极大似然函数估计值的一般步骤:

  1. 写出似然函数;
  2. 对似然函数取对数,并整理;
  3. 求导数 ;
  4. 解似然方程 。

  以下极大似然估计法的具体做法

  根据总体的分布,建立似然函数$L(x_1,x_2,...,x_n;\\theta_1,\\theta_2 ,...,\\theta_n)$ ;
  当 $L$ 关于 可微时,(由微积分求极值的原理)可由方程组
    $\\frac{\\partial L}{\\partial \\theta_i } =0,i=1,2,...,k$
  定出 $\\widehat{\\theta } _i(i=1,2,...,k)$,称以上方程组为似然方程。
  因为 $L$ 与$ln \\  L$有相同的极大值点,所以 $\\widehat{\\theta } _i(i=1,2,...,k)$ 也可以由方程组

    $\\frac{\\partial lnL}{\\partial \\theta_i } =0,i=1,2,...,k$

  定出 $\\widehat{\\theta } _i(i=1,2,...,k)$,称以上方程组为对数似然方程;$\\widehat{\\theta } _i(i=1,2,...,k)$ 就是所求参数 $\\theta _i(i=1,2,...,k)$ 的极大似然估计量。

2.2 离散型极大似然估计求解

  • 若总体 $X$ 为离散型,其概率分布列为 $P(X=x)=p(x;\\theta )$ ,其中 $\\theta$ 为未知参数。
  • 设 $(X_1,X_2,...,X_n)$ 是取自总体的样本容量为 $n$ 的样本,则 $(X_1,X_2,...,X_n)$ 的联合分布律为 $\\prod \\limits _{i=1}^{n}p(x_i,\\theta ) $ 。
  • 设 $(X_1,X_2,...,X_n)$ 的一组观测值为 $(x_1,x_2,...,x_n)$ 。
  • 易知样本 $X_1,X_2,...,X_n$ 取到观测值 $x_1,x_2,...,x_n$ 的概率为

    $L(\\theta )=L(x_1,x_2,...,x_n;\\theta )=\\prod \\limits _{i=1}^{n}p(x_i;\\theta ) $

   这一概率随 $\\theta$ 的取值而变化,它是 $\\theta$ 的函数,称 $L(\\theta )$ 为样本的似然函数。

  • 极大似然估计法原理就是固定样本观测值 $(x_1,x_2,...,x_n)$ ,挑选参数 $\\theta$ 使

     $L(x_1,x_2,...,x_n; \\widehat{\\theta} )=max \\ L(x_1,x_2,...,x_n;\\theta)$

  • 得到的 $ \\widehat{\\theta} $ 与样本值有关,$\\widehat{\\theta } (x_1,x_2,...,x_n)$ 称为参数 $\\theta$ 的极大似然估计值,其相应的统计量 $\\widehat{\\theta }(X_1,X_2,...,X_n)$ 称为 $\\theta$ 的极大似然估计量。极大似然估计简记为 MLE 或 $\\widehat{\\theta }$ 。
  • 问题是如何把参数 $\\theta$ 的极大似然估计 $\\widehat{\\theta }$ 求出。更多是利用 $lnL(\\theta)$是$ln(\\theta)$ 的增函数,故 $lnL(\\theta)$ 与 $L(\\theta)$ 在同一点处达到最大值,于是对似然函数 $L(\\theta)$ 取对数,利用微分学知识转化为求解对数似然方程

    $\\frac{\\partial \\  ln \\ L(\\theta )}{\\partial \\theta_i} =0,\\ j=1,2...,k$

  • 解此方程并对解做进一步的判断。但由最值原理,如果最值存在,此方程组求得的驻点即为所求的最值点,就可以很到参数的极大似然估计。极大似然估计法一般属于这种情况,所以可以直接按上述步骤求极大似然估计。

  例1:有两外形相同的箱子,各装100个球,一箱99个白球1个红球,一箱1个白球99个红球,现从两箱中任取一箱,并从箱中任取一球,问:所取的球来自哪一箱 ?  答:第一箱。

  例2:设 $X\\sim b(1, p)$ 即 $(0-1)$ 分布;  $X_1,X_2,...,X_n$ 是来自 $X$ 的一个样本,求参数 $P$ 的最大似然估计值。解:设 $x_1,x_2,...,x_n$  是一个样本值,$X$ 的分布律为:

    $P\\{X=x \\}=p^x(1-p)^{1-x},x=0,1$

  故似然函数为

    $L(p)=\\prod \\limits _{i=1}^{n}p^{x_i} (1-p)^{1-x_i} =p^{\\ \\sum \\limits _{i=1}^{n}x_i }  (1-p)^{\\ n-\\sum \\limits _{i=1}^{n}x_i }$

  而

    $ln \\ L(p)=(\\sum \\limits _{i=1}^{n}{x_i})ln\\ p+(n-\\sum \\limits _{i=1}^{n}x_i )ln\\ (1-p)$

  求导

    $\\frac{d}{dp} ln \\ L(p)=\\frac{1}{p}\\sum\\limits _{i=1}^{n} x_i-\\frac{1}{1-p}(n-\\sum\\limits _{i=1}^{n}x_i)$

  令

    $\\frac{d}{dp} ln \\ L(p)=0$

  解得 $p$ 的最大似然估计值

    $\\widehat{p}=\\frac{1}{n} \\sum \\limits _{i=1}^{n}x_i=\\bar{x} $

  $p$ 的最大似然估计量为

    $\\widehat{p}=\\frac{1}{n} \\sum \\limits _{i=1}^{n}X_i=\\bar{X} $

  它与矩估计量是相同的。

2.3 连续型极大似然估计求解

  • 若总体 $X$ 为连续型,其概率密度函数为$f(x;\\theta )$,其中 为未知参数。
  • 设 $(X_1,X_2,...,X_n)$ 是取自总体的样本容量为 $n$ 的简单样本,则 $(X_1,X_2,...,X_n)$ 的联合概率密度函数为$\\prod \\limits _{i=1}^{n}f(x_i;\\theta )$。
  • 设 $(X_1,X_2,...,X_n)$ 的一组观测值为 $(x_1,x_2,...,x_n)$ ,则随机点 $(X_1,X_2,...,X_n)$ 落在点 $(x_1,x_2,...,x_n)$ 的邻边(边长分别为 $dx_1,dx_2,...,dx_n$ 的 $n$ 维立方体)内的概率近似地为 $\\prod \\limits _{i=1}^{n}f(x_i;\\theta )dx_i$。
  • 考虑函数

     $L(\\theta )=L(x_1,x_2,...,x_n;\\theta )=\\prod \\limits _{i=1}^{n}f(x_i;\\theta )$
     同样, $L(\\theta $ 称为样本的似然函数。

  • 这样得到的 $ \\widehat{\\theta} $ 与样本值有关,$\\widehat{\\theta } (x_1,x_2,...,x_n)$ 称为参数 $\\theta$ 的极大似然估计值,其相应的统计量$\\widehat{\\theta }(X_1,X_2,...,X_n)$称为 $\\theta$ 的极大似然估计量。极大似然估计简记为MLE或$\\widehat{\\theta }$ 。
  • 问题是如何把参数$\\theta$的极大似然估计$\\widehat{\\theta }$求出。更多场合是利用$lnL(\\theta)$是$ln(\\theta)$的增函数,故$lnL(\\theta)$与$L(\\theta)$在同一点处达到最大值,于是对似然函数$L(\\theta)$取对数,利用微分学知识转化为求解对数似然方程

    $\\frac{\\partial L(\\theta )}{\\partial \\theta_i} =0,\\ j=1,2...,k$

  • 解此方程并对解做进一步的判断。但由最值原理,如果最值存在,此方程组求得的驻点即为所求的最值点,就可以很到参数的极大似然估计。极大似然估计法一般属于这种情况,所以可以直接按上述步骤求极大似然估计。 

  例:设 $X\\sim N(\\mu,\\sigma ^2);$ 为未知参数,$x_1,x_2,...,x_n$ 是来自 $X$ 的一个样本值,求: $\\mu,\\sigma ^2$的最大似然估计。
  解:$X$ 的概率密度为:

    $f(x;\\mu,\\sigma ^2)=\\frac{1}{\\sqrt{2\\pi } \\sigma } e^{-\\frac{1}{2\\sigma ^2}(x-\\mu)^2 }$

  联合概率密度为

    $p(x_1,x_2,...,x_n)=\\prod \\limits _{i=1}^{n} \\frac{1}{\\sqrt{2\\pi } \\sigma } e^{-\\frac{1}{2\\sigma ^2}(x_i-\\mu)^2 }$

  于是得似然函数为

    $L(\\mu,\\sigma ^2)=\\prod \\limits _{i=1}^{n} \\frac{1}{\\sqrt{2\\pi } \\sigma } e^{-\\frac{1}{2\\sigma ^2}(x_i-\\mu)^2 }$

    $(\\frac{1}{\\sqrt{2\\pi } \\sigma} )^{n}e^{-\\frac{1}{2\\sigma ^2}(x_i-\\mu)^2 }$

  似然函数取对数

    $ln \\ L=-\\frac{n}{2}ln\\ (2\\pi)- \\frac{n}{2}ln\\ (\\sigma ^2)-\\frac{1}{2\\sigma ^2} \\sum \\limits _{i=1}^{n}(x_i-\\mu)^2 $

  似然方程组为:

    $\\frac{\\partial }{\\partial x} ln \\ L=\\frac{1}{\\sigma ^2} \\sum \\limits _{i=1}^{n} (x_i-\\mu)=0$
    $\\frac{\\partial }{\\partial \\sigma ^2} ln \\ L = \\frac{1}{2(\\sigma ^2)^2} \\sum \\limits _{i=1}^{n} (x_i-\\mu)-\\frac{n}{2(\\sigma ^2)} =0$

  得出:

    $\\widehat{\\mu}_{mle}=\\frac{1}{n} \\sum \\limits _{i=1}^{n}x_i=\\bar{x} $
    $\\widehat{\\sigma ^2}_{mle}=\\frac{1}{n} \\sum \\limits _{i=1}^{n}(x_i-\\bar{x} )^2$

  $\\mu ,\\sigma ^2$的极大似然估计量分别为

    $\\frac{1}{n}\\sum_\\limits {i=1}^{n}X_i=\\bar{X} ,\\frac{1}{n}\\sum_\\limits {i=1}^{n}(X_i-\\bar{X} )^2=S_{n}^{2}$

 

以上是关于机器学习——极大似然估计的主要内容,如果未能解决你的问题,请参考以下文章

机器学习:极大似然估计

机器学习极大似然估计法

机器学习(二十五)— 极大似然估计贝叶斯估计最大后验概率估计区别

机器学习2-极大似然估计与贝叶斯估计

极大似然估计和EM算法

机器学习笔记九 EM算法及其推广