首页 > TAG信息列表 > ldots

Interesting Sum - 题解【思维】

Interesting Sum - 题解【思维】 前言 在vscode上配置了markdown插件,取代了之前写md的工具,本博客用来测试插件好不好用,所以选的题比较简单。但是jiangly这道题被FST了【滑稽】 题面 本题是Codeforces #815 Div.2的B题。原题链接见:B.Interesting Sum。下面搬运一下题面: You are gi

凸优化|凸集

1. 直线和线段 假设 \(x_1\ne x_2\) 是 \(\mathbf{R}^n\) 空间(n维欧氏空间)中的两个点,直线 \[y=\theta x_1 + (1-\theta)x_2 \]是穿过 \(x_1\) 和 \(x_2\) 的直线,\(\theta\in \mathbf{R}\) 。若满足 \(\theta\in(0,1)\) ,则 \(y\) 为连接 \(x_1,x_2\) 的线段上的一点。 2. 仿射集(af

《 树状数组 》

![](http://img.xjh.me/random_img.php?type=bg&ctype=nature&return=302 树状数组 前言 虽然 树状数组 只能维护求和,但是时间为 \(\log_{2}n\) 的。 其实可以先跳到下面看Code的 既然ta是一种数据结构,那么也应该有一个模型吧? 差不多就是这个样子吧…… 开始 那上图代表什么意义

Abel群循环分解定理

名字是我瞎编的qwq 定理:对于任意Abel群 \((A,.)\),其一定可以被分解为若干循环群的积 \(Z_{i_1}Z_{I_2}\ldots Z_{i_k}\)。 下记 \(O\left<x\right>\) 代表元素 \(x\)(默认在 \(A\) 中)的阶。记 \(\left<x\right>=\{x^i|i\in \mathbf Z\}\),也即 \(x\) 生成的循环子群。 证明思路:(忽略

拉格朗日插值

这篇文章存在极其严重的伪证现象,请就情况往下翻。 在平面直角坐标系中,给出$n+1$个函数在不同的坐标的点,求其解析式 即设$n+1$个点坐标分别为$:(x_0,y_0),(x_1,y_1),......,(x_n,y_n)$ 有$:\sum\limits_{i=0}^ny_i\frac{\prod\limits_{j=0}^n(x-x_j)(i\ne j)}{\prod\limits_{j=0}^n

18.06 矩阵

方程组 \[ \left\{ \begin{array}{rl} x + 2y + z = 2 \\ 3x + 8y + z = 12 4y + z = 2 \end{array} \right. \]写成矩阵的形式可以改写为 \[ \begin{bmatrix} 1 & 2 & 1 \\ 3 & 8 & 1\\ 0 & 4 & 1 \\ \en

xsy2318. Circular Shift

给定一个字符串 \(s\)。现在问你有多少个本质不同的 \(s\) 的子串 \(t=t_1t_2\ldots t_m(m>0)\) 使得将 \(t\) 循环左移一位后变成的 \(t′=t_2\ldots t_mt_1\) 也是 \(s\) 的一个子串。 \(1\le |s|\le 3\cdot 10^5\)。 首先看到本质不同的子串,容易想到用 \(\text{SAM}\) 解决

CF514D题解

题面 Description: 有 \(n\) 个敌人,每个敌人有 \(m\) 种属性值,第 \(i\) 个敌人的每个属性分别为 \(a_{i,1},a_{i,2},\ldots,a_{i,m}\)。你要构造一个长度为 \(m\) 的数列 \(b_{1\ldots m}\),规定敌人 \(i\) 被杀死当且仅当 \(a_{i,1}\leq b_1,a_{i,2}\leq b_2,\ldots,a_{i,m}\leq b

Deep Learning Week10 Notes

1. Auto-Regression Auto-regression methods model components of a signal serially, each one conditionally to the ones already modeled. They rely on the chain rule: \[\begin{align} P(X_1 = x_1,...,X_T= x_T) = P(X_1 = x_1)P(X_2=x_2|X_1=x_1)...P(X_T|X_{

多元统计分析笔记 Part01 To be Continued

Written with StackEdit. 教材与参考书 多元统计分析 线性代数, 概率论, 数理统计 线性代数知识复习 MIT Gilbert Strang 教授的"经典"! and "网红"!线性代数课程: MIT 18.06: Linear Algebra. 课程主页: The course webpage is here. 样本数据矩阵/样本资料矩阵 在研究

数值分析--插值

多项式差值 0x01 存在以及唯一性定理 存在以及唯一性定理:如果存在有\(1n+\)个不重复的点\((x_0,y_0),(x_1,y_1),...,(x_n,y_n)\),那么一定存在且只有一组系数\(a_1,a_2...a_n\)使得 \[p(x)=a_0+a_1x+a_2x^2+...+a_nx^n \]成立。 存在性证明: 首先引入\(Lagrange\ Polynomials\)即拉

HydroOJ H1081. ‘Riliane Lucifen d’Autriche’ teafrogsf 和他的四面镜子

HydroOJ H1081. ‘Riliane Lucifen d’Autriche’ teafrogsf 和他的四面镜子 ​ 不妨对 \(a\) 从大到小排序。我们定义一个状态为选取 \(m\) 个数的一种方案。那么要求的就是价值第 \(k\) 大的状态的价值。 ​ 设状态 \(S=\{a_1,a_2,\ldots a_m\}\)。定义 \(\operatorname{suc}(

2022.01.14学习总结

今天刷到任务量了,松了一口气,让我们来看看今天刷的题目吧。 昨天晚上做了填涂颜色。 题目描述 由数字00组成的方阵中,有一任意形状闭合圈,闭合圈由数字11构成,围圈时只走上下左右44个方向。现要求把闭合圈内的所有空间都填写成22.例如:6 \times 66×6的方阵(n=6n=6),涂色前和涂色后的方

Codeforces Good Bye 2021

Good Bye 2021 A. Interger Diversity 题意 给定 \(n\) 个整数,你可以选择其中的任意项,使其变成它的相反数(如把 \(x\) 变成 \(-x\)) ,问操作后的序列中最多有多少个不同的数字。 分析 记录每个数字是否出现过,如果出现过而相反数没有出现过就把它变成相反数。 Code /* 终点是一切概

离散数学知识点梳理

离散数学知识点概述 目录1. 命题逻辑1.1 命题符号化及联结词1.2 命题公式及分类 持续更新中!!!! 1. 命题逻辑 1.1 命题符号化及联结词 具有唯一真值的陈述句称为命题 x + y > 5.(×) 这朵花多好看呀(×) 明天下午有会吗?(×) 请关上门!(×) 除地球外,其他星球上也有生命(√) 不能再分

快速傅里叶变换FFT

目录快速傅里叶变换FFT用途前置知识系数表示法点值表示法单位负根定义性质快速傅里叶变换FFT快速傅里叶逆变换作用方法与推导 快速傅里叶变换FFT 用途 \(\operatorname{FFT}\)算法支持在\(O(n log n)\)时间内计算两个\(n\)度的多项式的乘法。也可以用来加速大整数乘法运算。 前置

AtCoder Regular Contest 125

题目传送门:AtCoder Regular Contest 125。 目录A - Dial UpB - SquaresC - LIS to Original SequenceD - Unique SubsequenceE - SnackF - Tree Degree Subset Sum A - Dial Up 题意简述 给定一个长度为 \(n\) 的 01 串 \(s\),和一个长度为 \(m\) 的 01 串 \(t\)。 你有一个 01

信息论基本概念

基本概念 总结一些基本概念,包括自信息、信息熵、联合熵、条件熵、互信息、条件互信息以及交叉熵等等。 自信息 自信息是对某一事件发生时所带来的信息量做了一个量化。 信息是一个比较抽象的概念,一条信息所包含的信息量和它的不确定性有直接的关系, 而自信息就是把信息的度量等价于

题解系列003 | 洛谷CF869B 【The Eternal Immortality】

原题传送门:The Eternal Immortality 读完题目,我们可以发现这题实质上就是让我们求两个数的阶乘的商模10的余数。但题目中给的数据是 0 ≤ a ≤

zoj4062

题意 直线上有\(n\)个植物,第\(i\)棵植物坐标为\(i\),浇一次水会长\(a_i\)高。 你最开始在\(0\)点,执行\(m\)次操作。每次操作必须往左或右走一步并给走到的那棵植物(如果有)浇一次水。 最大化\(m\)次操作后最矮的植物的高度。 做法 二分答案,题目转化成,每个位置要至少经过几次,然后求

B-概率论-极大似然估计

目录极大似然估计一、最大似然原理二、极大似然估计三、似然函数四、极大似然函数估计值五、求解极大似然函数5.1 未知参数只有一个5.2 位置参数有多个5.3 总结极大似然估计一、最大似然原理二、极大似然估计极大似然估计是建立在最大似然原理的基础上的一个统计方法。极大似然估计

利用矩母函数求独立随机变量之和的分布

在求独立的随机变量之和的分布时,可用矩母函数法。 1 矩母函数法 定理 已知\(X_1,\ldots,X_n\)为独立的随机变量,各种的矩母函数为\(M_1,\ldots,M_n\),\(a_1,\ldots,a_n\)为常数,则\(Y=\sum_{i=1}^{n}a_i X_i\)的矩母函数为 \[M_Y(t)=\text{E}[\exp(t\sum_{i=1}^{n}a_iX_i)]=\prod_{i=

MADE: Masked Autoencoder for Distribution Estimation

文章目录 概主要内容代码 Germain M., Gregor K., Murray I. and Larochelle H. MADE: Masked Autoencoder for Distribution Estimation. ICML, 2015. 概 考虑 x ^

高斯消元法和列主元素法

高斯消元法 设线性方程组 A x = b Ax=b Ax=b,其中 (

容斥原理

容斥原理 \(\because C_n^0 + C_n^1 + C_n^2 + \ldots + C_n^n = 2^n\) \(\therefore C_n^1 + C_n^2 + \ldots + C_n^n = 2^n - 1\) 实现的时候,奇数加,偶数减。 题意:给定一个整数 n 和 m 个不同的质数 \(p_1, p_2, \ldots, p_m\) 。求 1 ~ n 中能被 \(p_1, p_2, \ldots, p_m\) 中至