概率统计学习打卡——随机事件与随机变量

1.样本点、样本空间、随机事件、事件域、概率

\color{red}{样本点→样本空间→事件→事件域→概率}

样本点(\omega ):试验的每个可能结果。

样本空间(\Omega ):本质是一个集合,全部样本点构成的集合。

随机事件(A_{i} ):本质是一个集合,样本点的某个集合或样本空间的某个子集;也可以理解为本质是一个元素,事件域(F)中的一个元素。

事件域(F):本质是一个集合,是由事件构成的\sigma 域,也就是样本空间的一些子集构成的集合(加上一些限制)。

概率(P):本质是一个集合函数,我们将定义在F上的满足非负性、规律性、可列可加性的集合函数P叫概率。即定义在F上的集合函数到[0,1]的映射。


2.古典概型

使用条件:有限性+等可能性

有限性:涉及的随机现象只有有限个样本点

等可能性:每个样本点发生的可能性相等

公式:P(A)=\frac{事件A所含样本点的个数}{\Omega 中所有样本点的个数}

Python实现生日问题:



3.条件概率

A、B是两个事件,P(B)>0,P(A|B)=\frac{P(AB)}{P(B)} ,表示在B事件发生的条件下,事件A发生的概率,具体计算时可采用缩减样本空间法。


4.全概率公式、贝叶斯公式

全概率公式实际上是为了求解复杂事件概率,可以理解为全部原因(B_{i} )引起结果(A)发生的概率。


在事件A的概率不方便直接求的时候,用完全事件组B划分样本空间,使事件AB_{i} 的概率好求

此时P(A)=\sum_{i=1}^n P(AB_{i} )=\sum_{i=1}^nP(A|B_{i} )P(B_{i} )称为全概率公式。


贝叶斯公式实际上是求一个条件概率,是求导致结果(A)发生的各个原因(B_{i} )的可能性。

P(B_{i}|A )=\frac{P(AB_{i} )}{P(A)}=\frac{P(A|B_{i} )P(B_{i} )}{\sum_{i=1}^nP(A|B_{i} )P(B_{i} ) } 称为贝叶斯公式。


5.随机变量及其分布

随机变量(r.v.):本质是样本点的函数,设X(\omega )是定义在概率空间(F,\Omega ,P)上的单值实函数,若对直线上的任一博雷尔点集B,有{\omega :X(\omega )\in B}\in F,则称X(\omega )是随机变量。即定义在概率空间上样本点的函数到实数域的映射。

随机变量的分布函数:F(x)=P(X\leq x)

分布函数定义在(-\propto ,+\propto ),取值在[0,1]上,具有单调性、有界性、右连续性的概率累积函数。


6.伯努利试验与二项分布

伯努利试验:在同样的条件下重复地、相互独立地进行随机试验,且试验只有两种可能结果:发生或者不发生。

n重伯努利试验:将伯努利试验独立重复地进行n次,就称这一系列重复独立的随机试验为n重伯努利试验。

二项分布(X~B(n,p)):X表示n重伯努利试验中成功的次数,p为每次成功的概率,则随机变量X服从二项分布。成功k次的概率为P(X=k )=C_{n}^k p^k (1-p)^{n-k}


7.随机变量的数字特征

离散型数学期望:设离散型随机变量X的分布律P(X=x_{i} )=p_{i} ,若级数\sum_{i=1}^n \vert x_{i}  \vert p_{i} 收敛,则EX=\sum_{i=1}^n  x_{i}   p_{i}

连续型数学期望:设连续型随机变量X的概率密度为f(x),若积分\int_{-\propto }^{+\propto } \vert x \vert f(x)dx收敛,则EX=\int_{-\propto }^{+\propto }  x  f(x)dx

方差:随机变量函数的期望,表示随机变量X到它的期望距离平方的均值。DX=E[X-EX]^2=EX^2-(EX)^2

协方差:描述随机变量X、Y之间线性关系的程度。COV(X,Y)=E(X-EX)(Y-EY)=EXY-EXEY=\rho  _{xy} \sqrt{DXDY}

相关系数:描述随机变量X、Y之间线性关系的程度。\rho _{xy} =\frac{COV(X,Y)}{\sqrt{DXDY} } \rho \in [-1,1],相关系数的绝对值越接近1,表示X与Y之间相关程度越大。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。