其他分享
首页 > 其他分享> > 神经网络与深度学习-邱锡鹏-学习笔记10-关于概率的一些基本概念

神经网络与深度学习-邱锡鹏-学习笔记10-关于概率的一些基本概念

作者:互联网

 

 

 

 

 

注解:

1.随机变量和随机事件不等价,一个随机事件可以定义很多随机变量。

2.随机变量是定义在一个随机事件里面的变量,可以有很多种定义方法,比如可以定义出现某一个值的概率,也可以定义出现奇数的概率。

3.概率分布就是所定义的一个随机变量取所有可能值的概率的一个表。对于离散型的随机变量来说,概率分布就是一个表,而对于连续性的随机变量来说,概率分布是一个连续的图像。

4.通常用大写的P表示一个概率(取所有可能值的概率?),用小写的p表示一个随机变量取所有可能取值中具体的某个值的概率。

 

 

 

注解:

1.离散型随机变量有一个非常典型的分布是伯努利分布。

 

 

 

 

 

注解:

1.可以以抛掷硬币正面朝上的次数作为例子。抛掷n次,0次朝上,就是X=0,全部朝上,就相当于X=n. X的取值范围就是[0,n].

2.P(X=k)可以理解为:n次实验,有k次正面朝上的概率。

3.因为每次抛掷硬币的实验都是独立的,所以概率直接相乘就行了(要是每次抛掷硬币不是独立的,概率就不能直接相乘了?)。

4.(p+q)n的二项展开式和这个概率分布是式子是一样的,所以这个概率分布叫做二项分布。

 

 

 

注解:

1.连续性随机变量的概率密度函数就相当于是离散型随机变量的概率分布函数。

2.连续型随机变量理论上可以取连续区间上的任意一个点,也就是说它的取值可能是(可以是)无限多的,这样的话,就不能像离散型随机变量那样给每一个独立的取值都赋一个概率。

 

标签:10,概率,抛掷,概率分布,取值,学习,注解,邱锡鹏,随机变量
来源: https://www.cnblogs.com/yibeimingyue/p/15428382.html