首页 > TAG信息列表 > Sigma
概率统计A 知识总结
(搬运自 作业部落 ,不知道为啥到博客园上公式渲染全乱了) 前五章 概率论部分 概率 事件的交并差(跟集合运算差不多),条件概率 $P\left( AB \right) =P\left( A \right) P\left( B\mid A \right) $ ,相互独立 \(P(AB)=P(A)P(B)\) 。 "n次抽取,放回与不放回"问题:不论放回与否,第 n 次抽中红球SLAM后端—线性系统滤波(KF)与非线性系统滤波(EKF)
SLAM学习笔记—后端 概述 状态估计概率分布的核心思想 未知量(\(x_k\))的后验概率分布 = 似然概率分布 × 未知量(\(x_k\))的先验概率分布 这一等式贯穿全文,请牢牢抓住! 运动方程和观测方程 \[\begin{cases} x_k = f(x_{k-1},u_k)+w_k \\\\ z_k=h(x_k)+v_k \end{cases}Softmax函数
定义 在数学,尤其是概率论相关领域中,Softmax函数,或称归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量\(z\)压缩到另一个K维向量\(\sigma(z)\),使得每个元素都在(0,1)之间,并且所有元素的和为1。Softmax函数计算方式如下: \(\sigma(\mathbf{z})_j = \frac{e^{z_j}}{\s抽样分布定理——统计学(七)
抽样分布定理可以说是数理统计的基本定理了,因为它奠定了后面参数估计和假设检验的基础,所以掌握好这个定理以及它的证明十分有必要。这里介绍抽样分布定理以外,以及阐述它在后续内容中的重要作用。 一、抽样分布定理 *前提:都是单个总体的样本,样本的数学期望和方差都易求,以此来求总体2019-基于图像识别的在线粒度检测方法研究与检测系统设计
计算动态图像的梯度结构相似度(\(\mbox{NRSS}\)),数值低于一定阈值的图像被标记为模糊图像而被剔除; 结构相似度(\(\mbox{SSIM}\)) 亮度比较(\(\mbox{lighting}\)) \[\mbox{l}(x,y)=\frac{2\mu_x\mu_y+C_1}{\mu_x^2+\mu_y^2+C_1} \] 对比度比较(\(\mbox{contrast}\)) \[\mbox{c}(x,灰色预测模型(未完成)
灰色预测模型 灰色预测的概念 灰色系统的应用范畴大致分为以下几方面: 灰色关联分析。 灰色预测:人口预测;灾变预测… 灰色决策。 灰色预测控制 灰色系统:系统内一部分信息已知,另一部分信息未知,系统内各因素间有不确定的关系。 灰色预测法: 灰色预测法是一种对含有不确定因素的系统ML: Anomaly Detection | Multivariate Gaussian Distribution
Source: Coursera Machine Learning provided by Stanford University Andrew Ng - Machine Learning | Coursera Anomaly Detection assumption: Each feature follows Gaussian distribution: $$ x_j \sim N(\mu_j, \sigma_j^2) $$ And they are independent, i.e. for卡尔曼滤波详解
卡尔曼滤波是一个强大的工具,可以融合存在误差的信息,提取到更加精确的信息。 什么是卡尔曼滤波? 我们可以在任何包含不确定信息的动态系统中使用卡尔曼滤波,对系统下一步的状态做出有根据的预测。即使信息的不确定性会干扰到预测,卡尔曼滤波也能够预测出接近真实的变化情况。常见描述性指标的python实现
常见描述性指标的python实现 集中趋势 均值 \[\mu=\frac{\displaystyle\sum\limits_{i=1}^N{X_i}}{N} \]中位数 众数 离散程度 极差 \[R=\max{(X)}-\min{(X)} \]方差 \[\sigma^2=\frac{\displaystyle\sum\limits_{i=1}^N (X_i-\mu)^2}{N} \]标准差 \[\sigma =\sqrt{\sigma^2} \]变【Deep Learning】神经网络与深度学习
本文为吴恩达 Deep Learning 笔记 深度学习概述 什么是神经网络: Neural Network 神经网络 Neuron 神经元 Rectified Linear Unit (ReLU) 线性整流函数 房价预测案例 用神经网络进行监督学习: Supervised Learning / Unsupervised Learning 监督学习 / 无监督学习 Structured有向图最短偶环的多项式算法 (Björklund, Husfeldt, Kaski, 2022)
本文将对 STOC2022 的一篇论文: "The shortest even cycle problem is tractable" 进行解读. 虽然这是一篇很新的文章, 但是其核心技术还是相当通俗易懂的. 下文讨论的皆为无权图, 或者说, 环的长度就是经过的点的数目. 我们知道, 最短奇环是容易解决的, 因为最短奇回路 (closed w市场风险_VaR_混合法估计
市场风险_VaR_混合法估计市场风险VaR值估计混合法估计一、1. BRW:Aged-weighted1. 1.1 公式2. 1.2 优缺点二、2. HW:Volatility-weighted1. 2.1 公式2. 2.2 优缺点三、3. CWHS:correlation-weighted四、4. FHS:Filtered Historical simulation 一、1. BRW:Aged-weighted 越靠安全性证明
敌手模型 1、根据敌手是否指示参与方行事 (1)半诚实模型 参与方即使被腐败,也会正常执行协议,但中间会手机相关信息(比如中间结果等),并试图利用这些信息学习协议中的保密信息。 (2)增强半诚实模型 在半诚实的基础上,敌手可以更改参与者的起始输入,并正常执行程序。 (3)恶意模型 参与方会根据正态分布的密度函数动画演示—R语言
正态分布是概率统计中最重要的一种分布,其重要性我们可以从以下两方面来理解:一方面,正态分布是自然界最常见的一种分布。一般说来,若影响某一数量指标的随机因素很多,而每个因素所起的作用都不太大,则这个指标服从正态分布,例如,在生产条件不变的情况下,产品的强力、抗压强度、口径、长度Andrew Ng ML课程SVM部分学习记录——SVM核函数
核函数 对于线性不可分的情况,可以借助核函数构造非线性分类器. 先选定部分标记点(landmarks) 对于一个样本\(x\),设\(f\)度量样本与标记点的相似度: \[f_1={\mathbf {similarity}}(x,l^{(1)})=\exp(-\frac{\parallel x-l^{(1)}\parallel^2}{2\sigma^2})\\ f_2={\mathbf {similaritNC25043 [USACO 2007 Jan S]Protecting the Flowers
NC25043 [USACO 2007 Jan S]Protecting the Flowers 题目 题目描述 Farmer John went to cut some wood and left \(N (2 ≤ N ≤ 100,000)\) cows eating the grass, as usual. When he returned, he found to his horror that the cluster of cows was in his garden eating hisSP20173 题解
题解 提供一个贝尔级数爆拆 \(\sigma_0(n^2)\) 的做法(贝尔级数可见 command_block 的博客 Part. 2)。 设函数 \(f(n)=\sigma_0(n^2)\),不难证明这是一个积性函数: 对于 \(p\bot q\),\(f(p)f(q)=\sigma_0(p^2)\sigma_0(q^2)=\sigma_0((pq)^2)=f(pq)\),且 \(f(1)=1\)。 对于积性函数,就可6.1 线性映射
前面我们从矩阵乘法出发定义了线性映射,现在来尝试为线性映射对应矩阵(最好是唯一的)。如果能建立这样的等价关系,则一方面,对抽象的矩阵乘法,我们可以用映射去理解它;另一方面,对于任何线性映射,我们都可以用矩阵完全涵盖它的性质——毕竟相比于映射中各种各样的描述,矩阵是更“标准”的性机械设计基础 解答题知识点
机械设计基础 解答题知识点 自由度 p10 \[F = 3n-2p_L-p_H \] 运动构件:凡是可以运动的构件 低副:两个运动约束,只能转动(转动副)和移动(移动副)。每一个低副都由两个构件构成。 高副:只有一个运动约束,构件之间靠点或线接触 虚约束:去除约束之后运动不变 局部自由度:滚子,视作焊接在一起。与洛谷P3312 [SDOI2014]数表
洛谷P3312 [SDOI2014]数表 有 \(Q\) 组询问,每次询问给定 \(n,m,a\),求 \[\sum_{i=1}^n\sum_{j=1}^m[\sigma(\gcd(i,j))\le a]\sigma(\gcd(i,j)) \]其中 \(\sigma(n)\) 为 \(n\) 的所有正因子之和。 答案对 \(2^{31}\) 取模。 \(1\le Q\le 2\times10^4,1\le n,m\le 10^5,|a|\le 10^Logistic回归——原理加实战
Logistic回归 1. 什么是Logistic回归 Logistic是一种常用的分类方法,属于对数线性模型,利用Logistic回归,根据现有数据对分类边界建立回归公式,以此进行分类。 回归:假设现有一些数据点,我们用一条直线对这些点进行拟合,这个拟合过程就称为回归 2. Logistic回归与Sigmoid函数 Sigmoid函数cesium根据输入角度设置中心点(俯视角度)
//该经纬度为90度俯视角时的在地图中心点 var latlng={lat:22.749373512,lng:114.58905555} var angle=90//俯视角度,默认90°,可手动更改 //做计算 let centerLatlng=getCenterLatlng(latlng.lng, latlng.lat,158,8000/Math.tan(angle*Math.PI/180)) viewer.scene.camera.setView参数估计
参数估计 假设随机变量服从某种概率分布 \(p(x)\),但这种分布的参数\( \theta\)是未知的,比如假设 \(p(x)\) 服从一维正态分布,\(p(x) \sim N(\mu,\sigma^2)\),其中\(\mu\)和\(\sigma\)是未知的。需要根据一组服从此概率分布的样本来估计出概率分布的参数,这就是参数估计。对于已知概机器学习实战:用SVD压缩图像
前文我们了解了奇异值分解(SVD)的原理,今天就实战一下,用矩阵的奇异值分解对图片进行压缩. Learn by doing 我做了一个在线的图像压缩应用,大家可以感受一下。 https://huggingface.co/spaces/beihai/Image-Compression-with-SVD 功能很简单,上传需要压缩的图片,选择压缩比,提交即可。支持向量机学习笔记
支持向量机 \(R^n\)空间中的点\(x\in R^n\),超平面\(f(x)=w^Tx+b=0,w\in R^n,b\in R\)。 整个n维空间被分成两部分。\(w\)就是这个超平面的法向量。\(w\)指向的那个方向就是\(f(x)\)为正的那一部分。 点到超平面距离:\(\frac{|ax_0+by_0+c|}{\sqrt{a^2+b^2}}\)。为了想让距离体现出