概率统计 有人知道极大似然估计 是啥道理吗

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了概率统计 有人知道极大似然估计 是啥道理吗相关的知识,希望对你有一定的参考价值。

矩估计 是把样本和整体作对比 以整体情况 约等于 个体 是这个道理吧

方法是:1 2阶矩 等式求出未知量

那极大似然估计呢 是什么道理

参考技术A 你的理解有问题,不是整体情况约等于个体,实际上统计学是建立在大数定律上的,所有的估计都是以大数定律为前提的,还记得中心极限定理吗?那是一个极限,也就是说要样本足够大才可以,对小样本,估计失效,这要用到其他的一些知识。

所有的估计实际上都是参数估计,也就是求影响总体的参数,这些所求参数的科学性论证请参考教科书里面关于无偏估计和一致性分析。

极大似然估计是一种基于样本估计总体参数的最大近似,其实质是通过样本来拟合总体的分布情况的一种在导数上表现出最一致的情况。
参考技术B 一个随机试验如有若干个可能的结果A,B,C,…。若在一次试验中,结果A出现,则一般认为试验条件对A出现有利,也即A出现的概率很大。

统计学习方法四 朴素贝叶斯分类

朴素贝叶斯分类

1,基本概念

    

2,算法流程

   关键点:理解先验概率,条件概率,最大后验概率,下面是以极大似然估计的

  

  

  

3,算法改进(贝叶斯估计)

   上述用极大似然估计可能会出现所要估计的概率值为0的情况,改进方法:

  先验概率贝叶斯估计:K表示类别数,λ为参数:0时为极大似然估计;1时为拉普拉斯平滑

    

  条件概率贝叶斯估计:S为某个特征的离散种类

      

  

 

4,总结

    

朴素贝叶斯的主要优点有:

    1)朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率。

    2)对小规模的数据表现很好,能个处理多分类任务,适合增量式训练,尤其是数据量超出内存时,我们可以一批批的去增量训练。

    3)对缺失数据不太敏感,算法也比较简单,常用于文本分类。

    朴素贝叶斯的主要缺点有:   

    1) 理论上,朴素贝叶斯模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为朴素贝叶斯模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性个数比较多或者属性之间相关性较大时,分类效果不好。而在属性相关性较小时,朴素贝叶斯性能最为良好。对于这一点,有半朴素贝叶斯之类的算法通过考虑部分关联性适度改进。

    2)需要知道先验概率,且先验概率很多时候取决于假设,假设的模型可以有很多种,因此在某些时候会由于假设的先验模型的原因导致预测效果不佳。

    3)由于我们是通过先验和数据来决定后验的概率从而决定分类,所以分类决策存在一定的错误率。

    4)对输入数据的表达形式很敏感。

 朴素贝叶斯适用场景:

    1)不同维度之间相关性较小,离散属性的数据

以上是关于概率统计 有人知道极大似然估计 是啥道理吗的主要内容,如果未能解决你的问题,请参考以下文章

概率统计笔记:高斯分布の极大似然法,有偏&无偏估计

[白话解析] 深入浅出 极大似然估计 & 极大后验概率估计

概率论与数理统计:参数估计

统计学习方法四 朴素贝叶斯分类

[概率论与数理统计]笔记:5.2 参数的最大似然估计与矩估计

最大似然估计法的原理