首页 > TAG信息列表 > 随机变量

决策树

熵  $H = -\sum_{i = 1}^{n} p(x_{i}) \log p(x_{i})$   $n$ 是分类的数目,熵越大代表随机变量 $X$ 的不确定性越大。   可知 $0 \leqslant H(P) \leqslant \log n$      条件熵 $H(Y|X)$ 表示已知随机变量 $X$ 的条件下随机变量 $Y$ 的不确定性。   定义 $H(Y|X)=\sum_{

随机过程习题知识

1 第一章习题 1.1 第一次作业 1.1.1 两个随机变量的函数的概率密度求解 法1:先求解概率分布函数,再由分布函数求导得到概率密度。 例题:已知随机变量\(X\)服从参数为1的指数分布,求\(Y = \sqrt{2X}\)的概率密度函数。 解答:由题意知,随机变量\(X\)的概率密度为: \[f(x) = \begin{cases

概率论与数理统计

概率论与数理统计 主标题 # 章节标题 ## 目录标题 ### 小节标题 #### 第一章 概率论的基础概念 5. 条件概率 (一) 条件概率 解释:所考虑的是事件A已经发生的条件下事件B发生的概率 定义:设A,B是两个事件,且P(A) > 0 , 称 ​ P(B|A) = P(AB) / P(A) 为在事件A发生的条件

强化学习-学习笔记1 | 基础概念

1. 基本概念 1.1 概率论的基础知识 a. 随机变量 概念:是一个未知的量,值是由随机事件结果来决定的。 使用大写 X 来表示随机变量 如在抛硬币之前我是不知道硬币结果是什么,但是我知道事件的概率 使用小写 x 来表示随机变量 X 的观测值,只是表示一个数,没有随机性,如下面观测到三次

信息论——随机变量生成、算术编码、LZ77, LZ78笔记

随机变量生成:一种从具体到抽象的建模 这种建模可以用多叉树表示,每一个树叶表示一个事件。 关于这种树的深度有如下性质和定理:      这和熵的对数特征是吻合的。   我们当然希望树的深度尽量小。 树深度估计:   特殊情况(dyadic)下取等:          非特殊情况:(根据Kraft不等

m7

1、随机过程数学知识 形式:样本空间={样本点1、样本点2...样本点n},事件A={样本点1,样本点3}  概率空间:                    随机向量:多维随机向量 随机过程比如股票价格,每个时间点是一个随机变量,有时间和状态,可以分类:      固定状态,得到的随机过程的一次实现 离散型

机器学习004—期望与方差

  每个随机变量都有一个分布(分布列、概率密度函数或者分布函数),不同的随机变量可能拥有不同的分布,也可能拥有相同的分布。分布全面地描述了随机变量取值的统计规律性,由分布可以算出随机变量事件的概率,也可以求出随机变量的均值、方差、分位数等特征数。这些特征数从某个侧面描述

自然语言处理(八) 条件随机场(仅基础)

条件随机场 目录条件随机场概率无向图模型 条件随机场 (conditional random field, CRF) 是给定一组随机变量\(\mathbf{X}\)条件下,另一组随机变量\(\mathbf{Y}\)的条件概率分布模型。并假设随机变量\(\mathbf{Y}\)构成马尔可夫随机场(稍后介绍)。一般在NLP中,特别是在标注、分词、命

期望,方差,协方差,协方差矩阵

1.期望 定义 \[E(x)=\sum\limits_{k=1}^{\infty}x_kp_k-离散型 \]\[E(x)=\int_{-\infty}^{+\infty}xf(x)dx-连续型 \]性质 \(E(C)=C,C是常数\) \(E(CX)=CE(X),C是常数\) \(E(X+Y)=E(X)+E(Y)\) \(若X,Y相互独立,有E(XY)=E(X)E(Y)\) 2.方差 定义 \[D(X)=\sum\limits_{k=1}^{\infty}

计量经济学入门01

随机变量的数字特征的作用: 虽然随机变量的密度函数或累积分布函数能够完整地描述随机变量,但是我们常常希望用少数几个常数来刻画其主要特征,这些特征就是随机变量的数字特征。包括平均位置(均值期望)、波动幅度(方差)、与其他变量是否存在“协同”相关性(协方差)、相关系数、原点矩

随机变量

目录离散型分布连续型分布随机变量独立性离散型条件分布连续型条件分布卷积公式次序统计量随机向量变换   定义 设 \(\xi(\omega)\) 是定义在概率空间 \(\{\Omega, F,P\}\) 上的单值实函数,且对于 \(\mathbb{R}\) 上的任一波雷尔集 \(B\) 有 \[\xi^{-1}(B) = \{\omega:\xi(\omega)

现代精算风险理论01:损失分布

目录第一章 损失分布第一节 随机变量的数字特征一、特征函数和矩母函数二、概率母函数和累积量母函数第二节 索赔次数的损失分布一、索赔次数的损失分布族二、零调整分布和零截断分布三、复合分布第三节 索赔额的损失分布一、常用的索赔额分布二、混合分布三、保险领域中的混合分

MCS:连续随机变量——Gamma分布

Gamma分布     Gamma分布几乎跟Erlang分布一样,唯一的区别是参数 k k k,在Gamma分布中 k k k可以是

随机变量、分布函数

随机变量 定义:对样本空间,有一个实值函数X=X(w),使每个实验结果关联一个特定的数,这种实验结果与数的对应关系形成随机变量。我们将实验结果所对应的数称为随机变量的取值。(简单的说每个实验结果用一个数来表示,这样在数学上比较方便) 对随机变量进行分类有:离散型随机变量、非离散型随

期望、方差、协方差、协方差矩阵

1. 期望(数学期望、均值) 在概率论和统计学中,数学期望(或均值,亦简称期望)是试验中每次可能结果的概率乘以其结果的总和,是最基本的数学特征之一。它反映随机变量平均取值的大小。 根据大数定律,随着重复次数接近无穷大,数值的算术平均值几乎肯定地收敛于期望值。 1.1. 期望的定义 对于

概率论基础

文章目录 一维随机变量二维随机变量期望似然函数 一维随机变量 随机事件 频率和概率 古典概型 样本空间 条件概率 独立性 独立实验 n重伯努利实验 二维随机变量 二维随机变量 二维离散型随机变量 二维连续性随机变量 边缘分布 离散型的边缘分布 连续型的

Optimal Transport 最优传输

Optimal Transport Proble 最优传输问题 該問題最初被定義爲: 存储在不同地区的 N 个仓库 (位置 xi ,每个仓库有物资 Gi),需要将这些物资分发到 M 个不同的地方 (位置 yi ,货物数量需求为 Hi)。各个仓库及分发地点之间距离为 C(xi,yj) 。 目標: 是讓運輸矩陣L~ C(Xi,Yj)中所有元素的和最小。 解决思

正态分布检验

正态分布检验 雅克-贝拉检验(Jarque-Bera test)——JB检验(大样本) 对于一个随机变量(Xi),假设其偏度为S,峰度为K,那么我们可以构造JB统计量: J B =

【学习笔记】第四章 概率论与数理统计

4.1 随机变量的概率计算和数字特征 4.1.1 随机变量的概率计算 例4.1 设 (1)求P{2<X<6};(2)确定c,使P{-3c<X<2c}=0.6 from scipy.stats import norm from scipy.optimize import fsolve print("p=",norm.cdf(6,3,5)-norm.cdf(2,3,5))#做差,后减前 f=lambda c: norm.cdf(2*c,3,5)-norm.

开始讨论离散型随机变量吧!《考研概率论学习之我见》 -by zobol

上一文中,笔者给出了随机变量的基本定义:一个可测映射,从结果空间到实数集,我们的目的是为了引入函数这个数学工具到考研概率论中,但是我们在现实中面对的一些事情结果,映射而成的随机变量和其对应的概率值,并不能映射一个有太多用的函数。这就是离散型随机变量。我们先讨论它,因为离散型

为什么要引入”随机变量“的概念,如何定义随机变量《考研概率论学习之我见》

l 先仔细定义一下随机变量的概念,然后再引入概率函数比较好。   1.随机变量的准确定义 2.为什么要引入随机变量? 3.随机变量的本质是什么? 4.随机变量的对应关系f唯一吗? 5.随机变量明明是”函数“为什么叫”变量“? 6.我们之前学的考研古典概率样本空间跟随机变量的联系?   1.随机变

概率与期望

定义 概率,就是某个随机事件出现的可能性大小。 若 \(X\) 是一个离散型的随机变量,可能值为 \(x_1,x_2…\),对应的概率分别为 \(p_1,p_2…\),那么它的期望值为 \(E(x)=\sum_i \limits p_ix_i\)。 期望的线性性 \[E(x+y)=E(x)+E(y) \]证明: \[E(x+y)=\sum_i \sum_j(i+j)*P(i=x,j=y

Jmeter书中不会教你的(59)——随机变量Random Variable

在jmeter中有一个配置元件叫Random Variable,用于生成随机数。 一、 Random Variable的作用范围  按上面的设置执行,当test plan下只存在一个线程组时,Random Variable无论放在线程组内还是线程组外,Random Variable中per Thread无论设置TRUE还是false,每个线程用户每次循环都会重

机器学习笔记十:各种熵总结

一.什么是熵Ⅰ.信息量首先考虑一个离散的随机变量x,当我们观察到这个变量的一个具体值的时候,我们接收到多少信息呢? 我们暂时把信息看做在学习x的值时候的”惊讶程度”(这样非常便于理解且有意义).当我们知道一件必然会发生的事情发生了,比如往下掉的苹果.我们并不惊讶,因为反正

BUAA_概率统计_Chap05_随机变量的数字特征

第五章 随机变量的数字特征 5.1 数学期望 5.1.1 离散型随机变量 \(X\) 的数学期望 定义 设 \(X\) 的分布律为:\(P\{X=x_k\}=p_k,\quad k = 1, 2, ...\) 若级数 \(\sum\limits_{k=1}^{\infty}x_kp_k\) 绝对收敛(即\(\sum\limits_{k=1}^{\infty}|x_k|p_k\) 收敛) 则称级数 \(\sum\limit