贾俊平统计学——概率

Posted zm-pop-pk

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了贾俊平统计学——概率相关的知识,希望对你有一定的参考价值。

统计学分为描述性统计和推断统计。推断统计是指通过样本数据对总体特征作出推断,它有3个要素:1.随机观测的样本数据;2.问题的条件和假定;3.对总体所做出的以概率的形式进行表述的推断。因此推断统计与概率论是密不可分的。

 

随机事件、基本事件、样本空间

随机事件是概率论中一个很重要的概念,它不是指一个试验,而是指一个试验的结果,可以用A、B、C等表示,必然事件用$\Omega$表示,不可能事件用$\Phi$表示。

随机事件简称为事件,要注意这一概念是指试验的结果(而不是试验本身),这个结果可以是数值,也可以用文字表述。

基本事件是指不能分解成多个事件的随机事件。在一次试验中,虽然试验的结果有多种可能性,但一次试验的结果只能是所有结果中的一个,即只能发生一种基本事件。而试验的所有结果的总和,即所有基本事件的全体,称为样本空间,记为$\Omega$(必然事件)。

 

随机事件的概率

上面说了一次试验的结果是有多种可能的,那么所有结果中,事件A(可能是基本事件,也可能是几个基本事件的组合)发生的可能性有多大?这个可能性就是事件A的概率,记为$P(A)$,它显然是一个数值。概率有古典定义、统计定义、主观概率定义,我们重点关注统计定义

概率的统计定义:

相同条件下,随机试验$n$次,事件A发生$m$次,比值$m/n$称为事件A发生的频率;随着$n$的增大,该频率在一常数$p$上下波动,趋于稳定,频率的稳定值即为事件A发生的概率

$$P(A)=\fracmn=p$$

 

概率的性质

 

1.对于任一随机事件A,有

$0\leq P(A)\leq 1$

2.

$$P(\Omega )=1$$

$$P(\Phi )=0$$

3.若A与B互斥,则

$$P(A\cup B)=P(A)+P(B)$$

概率的加法法则

 对于任一的2个随机事件A和B,它们的和等于:

$$P(A\cup B)=P(A)+P(B)-P(A\cap B)$$

条件概率、乘法公式、独立事件

所有的事件都是在一定的条件下发生的,如果在试验原本的条件之上,又已知了试验结果的部分信息,则事件A发生的概率一般会改变。如在事件B已经发生的情况下,事件A发生的概率,就叫做事件B发生条件下事件A发生的条件概率,记为$P(A\mid B)$。

这里的条件就是“事件B已经发生”,这是我们额外知晓的信息,这个信息相当于给了我们一个“情报”,使我们得以在一个缩小的范围内考虑问题。它会对事件A发生的概率造成影响,一般来说,$P(A\mid B)\neq P(A)$。

条件概率$P(A\mid B)$、概率$P(AB)$、$P(B)$之间的关系如下:

$$P(A\mid B)=\fracP(AB)P(B)$$

由此我们可以得到概率的乘法公式:

$$P(AB)=P(B)\cdot P(A\mid B)$$

上面我们说知晓事件B的发生“一般”会改变事件A发生的概率,那么到底什么时候会改变,什么时候又不影响呢?我们将一个事件的发生不影响另一个事件发生的现象称为这2个事件相互独立。因此在时间A与事件B独立时,$P(A\mid B)=P(B)$。

与独立易混淆的一个概念叫做互斥,很明显,如果事件A和B互斥,则它们必然不独立(有你无我,都影响了对方的发生),独立一定不互斥,互斥一定不独立。

 

以上是关于贾俊平统计学——概率的主要内容,如果未能解决你的问题,请参考以下文章

统计学笔记2:数值方法描述

统计学中R方,及P值为多少?

R语言-统计学 描述性统计

分类数据分析

R和 Python 用于统计学分析,哪个更好

《统计学:从数据到结论》学习笔记(part2)--总体是人们所关心的所有个体的集合