Vamei博客学习笔记(5)
作者:互联网
本文取自:
-
描述量(descriptor)
描述随机变量最完备的方法是写出该随机变量的概率分布。
概率分步包含了该随机变量的所有信息,全而大,我们填写报名表上面有几栏:姓名、出生年月、性别、民族…这些信息就可以表示一个人,并不需要写上血型、指甲长短、瞳距…尽管这些信息也是描述这个人的一部分,同样的代表随机变量的主要特征的一些量称为随机变量的描述量(descriptor)。比如期望用于表示分布的中心位置,方差用于表示分布的分散程度等等。
-
期望(expectation)
以概率值为权重,加权平均所有可能的取值,来获得了该随机变量的期望(expectation):
E(x)=i∑xip(xi)
如果某个取值概率较大,那么它就在最终结果中占据较大的分量。期望常用字母μ表示(分布的参数μ就是正态分布的期望!这也是μ常用于表示期望的原因。),我们将期望写成E(X),这表示的是一个数值,而不是一个随机变量的函数。
期望是在事件还没确定时,根据概率,对平均结果的估计。
期望是一个线性运算。随机变量线性组合的期望,等于期望的线性组合。
-
方差(variance)
期望表示的是分布的中心位置,那么方差就是分布的离散程度。
方差:Var(X)=E[(X−μ)2]标准差:σ=Var(X)
正态分布的标准差正等于正态分布中的参数σ。这正是我们使用字母σ来表示标准差的原因! -
Chebyshev不等式
对于任意随机变量X,如果它的期望为μ,方差为σ2,那么对于任意t>0,
P(∣X−μ∣>t)≤t2σ2 -
斜度(skewness)
Skew(X)=E[(X−μ)3]
-
矩(moment)
-
矩生成函数(moment generating function)
-
协方差(covariance)
方差和均值是单个随机变量的描述量,对于两个随机变量之间关系的描述量有协方差、相关系数
协方差的定义基于期望。
Cov(X,Y)=E[(X−μX)(Y−μY)]
正的协方差表达了正相关性,负的协方差表达了负相关性。对于同样的两个随机变量来说,计算出的协方差越大,相关性越强。 -
相关系数(correlation coefficient)
相关系数是**“归一化”**的协方差。相关系数是用协方差除以两个随机变量的标准差。相关系数的大小在-1和1之间变化.它的定义如下:
ρ=Var(X)Var(Y)Cov(X,Y) -
整体看概率论
在整个概率论中,核心的问题是随机变量的分布。
许多结论都是依赖于分布的具体类型。
概率分布是否存在什么共性呢?
自然有时候比我们想像的慷慨,它给出了一个概率论中相当核心的一组定律:中心极限定律(central limit theorem)
-
中心极限定律(central limit theorem)
我们寻找n个IID(independent and identically distributed)随机变量的均值X。当n趋进无穷时,这个均值(一个新的随机变量)趋近一个正态分布。
均值趋近正态分布
-
概率论体系
标签:期望,方差,博客,协方差,笔记,Vamei,Var,概率论,随机变量 来源: https://blog.csdn.net/The_Time_Runner/article/details/90237930