最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用

Posted holy_black_cat

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用相关的知识,希望对你有一定的参考价值。

最大似然估计 MLE

给定一堆数据,假如我们知道它是从某一种分布中随机取出来的,可是我们并不知道这个分布具体的参,即“模型已定,参数未知”。

例如,对于线性回归,我们假定样本是服从正态分布,但是不知道均值和方差;或者对于逻辑回归,我们假定样本是服从二项分布,但是不知道均值,逻辑回归公式得到的是因变量y的概率P = g(x), x为自变量,通过逻辑函数得到一个概率值,y对应离散值为0或者1,Y服从二项分布,误差项服从二项分布,而非高斯分布,所以不能用最小二乘进行模型参数估计,可以用极大似然估计来进行参数估计; 因此最大似然估计(MLE,Maximum Likelihood Estimation)就可以用来估计模型的参数。MLE的目标是找出一组参数,使得模型产生出观测数据的概率最大:

技术分享

其中技术分享就是似然函数,表示在参数技术分享下出现观测数据的概率。我们假设每个观测数据是独立的,那么有

技术分享

为了求导方便,一般对目标取log。 所以最优化对似然函数等同于最优化对数似然函数:

技术分享

举一个抛硬币的简单例子。 现在有一个正反面不是很匀称的硬币,如果正面朝上记为H,方面朝上记为T,抛10次的结果如下:

技术分享

求这个硬币正面朝上的概率有多大?

很显然这个概率是0.2。现在我们用MLE的思想去求解它。我们知道每次抛硬币都是一次二项分布,设正面朝上的概率是技术分享,那么似然函数为:

技术分享

x=1表示正面朝上,x=0表示方面朝上。那么有:

技术分享

求导:

技术分享

令导数为0,很容易得到:

技术分享

也就是0.2 。

 

 

 最大后验概率  MAP

以上MLE求的是找出一组能够使似然函数最大的参数,即技术分享。 现在问题稍微复杂一点点,假如这个参数技术分享有一个先验概率呢?比如说,在上面抛硬币的例子,假如我们的经验告诉我们,硬币一般都是匀称的,也就是技术分享=0.5的可能性最大,技术分享=0.2的可能性比较小,那么参数该怎么估计呢?这就是MAP要考虑的问题。 MAP优化的是一个后验概率,即给定了观测值后使技术分享概率最大:

技术分享

把上式根据贝叶斯公式展开:

技术分享

我们可以看出第一项技术分享就是似然函数,第二项技术分享就是参数的先验知识。取log之后就是:

技术分享

回到刚才的抛硬币例子,假设参数技术分享有一个先验估计,它服从Beta分布,即:

技术分享

而每次抛硬币任然服从二项分布:

技术分享

那么,目标函数的导数为:

技术分享

求导的第一项已经在上面MLE中给出了,第二项为:

技术分享

令导数为0,求解为:

技术分享

其中,技术分享表示正面朝上的次数。这里看以看出,MLE与MAP的不同之处在于,MAP的结果多了一些先验分布的参数。

 

补充知识: Beta分布

Beat分布是一种常见的先验分布,它形状由两个参数控制,定义域为[0,1]

技术分享

Beta分布的最大值是x等于技术分享的时候:

技术分享

所以在抛硬币中,如果先验知识是说硬币是匀称的,那么就让技术分享。 但是很显然即使它们相等,它两的值也对最终结果很有影响。它两的值越大,表示偏离匀称的可能性越小:

技术分享

以上是关于最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用的主要内容,如果未能解决你的问题,请参考以下文章

机器学习基本理论详解最大似然估计(MLE)最大后验概率估计(MAP),以及贝叶斯公式的理解

最大似然估计 (MLE)与 最大后验概率(MAP)在机器学习中的应用

最大似然估计和最大后验概率估计(MLE&MAP)

最大似然估计 (MLE) 最大后验概率(MAP)

频率学派 极大似然估计MLE,贝叶斯学派 最大后验估计MAP 2021-05-11

机器学习(二十五)— 极大似然估计贝叶斯估计最大后验概率估计区别