首页 > TAG信息列表 > ALPHA

Task 1 Python基础知识介绍

变量,运算符,数据类型与条件语句1.1变量变量的值是可以变化的,在Python中,不需要事先声明的变量名和变量类型,直接赋值即可以创建任意类型的对象变量。不仅变量的值是可以变化的,变量的类型也是可以随时变化的。 例如,下面第一条语句创建的整型变量x,并赋值3.``x=3print(type(x))输出结果

为 Python 和 Shinylive 应用程序容器化 Shiny

Shiny for Python 为基于 Python 的数据和科学堆栈构建的 Web 应用程序带来了简单的交互性。容器化 Py-Shiny 应用程序是部署到各种托管选项(包括静态托管)的下一步。Shiny 是一个框架,可以轻松构建交互式 Web 应用程序。Shiny 是 10 年前作为 R 包推出的。在他的 10 周年主题演讲中,Jo

统计学习方法学习笔记-05-决策树

首先介绍决策树的基本概念,然后通过\(ID3\)和\(C4.5\)介绍特征的选择、决策树的生成以及决策树的修剪,最后介绍\(CART\)算法 决策树模型与学习 分类决策树模型的树结构有两种结点,内部结点表示一个特征或属性,叶结点表示一个类; 决策树所有的从根节点到叶结点的路径构成if-else规则集,

【狄利克雷前缀和 / 后缀和】算法学习

1. 狄利克雷前缀和 问题描述 有数列 \(\{a\}\),求数列 \(\{b\}\) 满足 \[b_k = \sum_{i|k} a_i \]数列长度 \(n \le 2 \times 10 ^ 7\)。 分析 考虑质因数分解,某个数 \(x = \prod\limits p_{i} ^ {\alpha_i}\), 将其写成行向量 \((\alpha_1,\alpha_2, \dots,\alpha_k)\)。 那么每次

P6020 [Ynoi2010] Exponential tree 解题报告

P6020 [Ynoi2010] Exponential tree 解题报告: 更好的阅读体验 感觉还是水平不太行,写的很感性。 题意 给定 \(n,k\),构造矩阵满足: \(a_{i,i}=a_{i,i+1}=1\); 对于 \(i>j\),\(a_{i,j}=0\); 若 \(j>i+1\) 且 \(a_{i,j}=1\),则存在 \(i<t<j\) 满足 \(a_{i,t}=a_{t,j}=1\); 矩阵 \(A^k\) 需

数学题和光速幂

P5517 [MtOI2019]幻想乡数学竞赛 \[a_n=\begin{cases} -3,&n=0\\ -6,&n=1\\ -12,&n=2\\ 3a_{n-1}+a_{n-2}-3a_{n-3}+3^n,&n>2 \end{cases}\]注意到这是个常系数非齐次线性递推。 特征方程是 \[r^3-3r^2-r+3=0\\ (r-1)(r+1)(r-3)=0\]解得特征根为 \[r_1=1,r_2=3,r_3=-1 \]那么相伴

云锵投资 2022 年 8 月简报

2022 年 8 月云锵投资团队月报: 摘要 本月起,调整 YQ6、YQ5 的业绩比较基准为“中证流通”。 期货策略进行了升级,预计带来更多 Alpha。 本月量化基金策略业绩:中; 本月量化股票策略业绩:优; (优良中差,表明全国排名四位分) 本月,沪深300 -2.19%。本月继续下跌,各类指标指示,目前处于相对低点

学习偏态分布的相关知识和原理的4篇论文推荐

偏态分布(skewness distribution)指频数分布的高峰位于一侧,尾部向另一侧延伸的分布。偏态分布是与“正态分布”相对,分布曲线左右不对称的数据次数分布,是连续随机变量概率分布的一种。可以通过峰度和偏度的计算,衡量偏态的程度。 1、The Generalized-Alpha-Beta-Skew-Normal Distri

MathProblem 43 Wall and two houses problem

There is a castle surrounded by a circular wall. The wall has a north gate and a south gate. A yellow house lays 3 miles north of the north gate. A blue house lays 9 miles east of the south gate. What is the radius of the circle formed by the wall? Soluti

MathProblem 29 Four dogs and a square problem

Four dogs occupy the four corners of a square with side of length a. At the same time each dog starts walking at the same speed directly toward the dog on his left. Eventually all four dogs will converge at the center of the square. What path does each do

雑用 2

平面旋转。应该是比较好理解的版本。 我们对一个平面(逆时针)旋转 \(\beta\) 度,无非就是对每一个有意义的向量 \(\boldsymbol a = (x, y)\) 进行旋转。不妨考察单位向量 \(\boldsymbol e = (\cos \alpha, \sin \alpha)\),令 \(\boldsymbol a = k \cdot \boldsymbol e\),则由三角恒等变

Seeking Alpha独立分析师:百度到2030年可能成为中国市值最高的公司

Seeking Alpha独立分析师表示,登录dafa注册-dafa888bet有多元化的竞争业务组合:搜索引擎、人工智能云、智能设备和智能驾驶,结合百度的市场渗透率、品牌知名度、中国云业务的增长以及百度在技术方面的领先地位来看,百度有望在2030年成为中国市值最高的公司。     登录dafa注册-da

论文解读(PPNP)《Predict then Propagate: Graph Neural Networks meet Personalized PageRank》

论文信息 论文标题:Predict then Propagate: Graph Neural Networks meet Personalized PageRank论文作者:Johannes Gasteiger, Aleksandar Bojchevski, Stephan Günnemann论文来源:2019,ICLR论文地址:download 论文代码:download 1-Abstract   本文主要将 PageRank 算法引入到

颜色工具函数

颜色转换 import { normal } from 'color-blend' /** * @description 将16进制色号转换成rgb:{r,g,b,a} * @param {string} color * @param {float} Alpha * @return {object} */ function colorRgbObj(color, Alpha = 1) { color = color.toLowerCase() var p

[Html5] 用于分析26种画布合成模式(globalCompositeOperation)的演示页面

作者: zyl910 一、缘由 Html5画布(Canvas)的上下文(Context2D)提供globalCompositeOperation属性,可用于控制图形的绘制时的合成模式。 查了一下文档,发现多达共有26种合成模式。且文字介绍很简略,部分模式看不太懂。 于是我编写了一个功能丰富的演示页面,能够随时调整globalCompositeOpera

NLP学习(二)——支持向量机(SVM)

Support Vector Machine(SVM) 对下图中的数据点进行分类: 要解决的问题: 什么样的决策边界最好? 特征数据本身若很难分应怎么处理? 计算复杂度如何? 决策边界 若将数据点比喻为地雷,则决策边界为选出的离雷区最远的(雷区就是边界上的点,要large margin) 距离的计算 数据标签定义 数据

线性代数 - 矩阵对角化

矩阵对角化 今天听 \(\texttt{m}\color{red}\texttt{yee}\) 嘴的,赶紧来补个学习笔记。 我们有点时候需要计算一个较小矩阵的 \(n\) 次幂,但直接求幂非常不方便,这是会考虑矩阵对角化,将 \(M\) 改写为 \(\mathcal{PDP^{-1}}\),这样 \(M^n\) 次就可以写为 \((\mathcal{PDP^{-1}})=\mathc

LGP5136口胡

配一个 \((\frac{1-\sqrt{5}}{2})^n\)。为什么不是 \(\frac{\sqrt{5}-1}{2}\)?因为根号难处理需要消掉: \[f_n=(\frac{1+\sqrt{5}}{2})^n+(\frac{1-\sqrt{5}}{2})^n \]考虑把两边的 GF 都扒出来,设 \(\alpha=\frac{1+\sqrt{5}}{2},\beta=\frac{1-\sqrt{5}}{2}\): \[F(x)=\frac{1}{1-

【Deep Learning】优化深度神经网络

本文为吴恩达 Deep Learning 笔记 深度学习的实用层面 概念 训练 / 验证 / 测试: Training Set 训练集 Development Set 验证集 Test Set 测试集 偏差 / 方差: Bias 偏差 Variance 方差 Underfitting 欠拟合 Overfitting 过拟合 Optimal Error / Bayes Error 理想误差 / 贝叶斯

27. AtCoder-Multiple Sequences

题目链接:Multiple Sequences 给定 \(n,m\),问存在多少长度为 \(n\) 的序列满足所有元素均 \(\in [1,m]\) 且对于序列中任意的相邻项,均满足后一项能被前一项整除。 结果对 \(998244353\) 取模。 一开始往dp的方向去想,发现没什么办法优化,说明还需要挖掘一些隐含的性质。容易注意到,序

「codeforces - 542D」Superhero's Job

link。 容易发现,如果将 \(x\) 写作 \(\displaystyle \prod_{i = 1}^k p_i^{\alpha_i}\) 的形式,\(\displaystyle J(x) = 1+\sum p_i^{\alpha_i}+\sum\sum p_i^{\alpha_i}p_j^{\alpha_j}+\dots = \sum_{T \in 2^S} \sum_{i \in T} p_i^{\alpha_i}\),其中 \(S = \{1,

浅析拉格朗日乘数法及其对偶问题

拉格朗日乘数(Lagrange Multipliers)法   在数学最优问题中,拉格朗日乘数法(以数学家约瑟夫·路易斯·拉格朗日命名)是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法。这种方法将一个有n个变量与k个约束条件的最优化问题转换为一个有n + k个变量的方程组的极值问题,其

线性回归算法

预测函数 单变量线性回归:\(h{_\theta(x)} = \theta{_0} + \theta{_1}x\);令\(x_0 = 1\);则\(h{_\theta(x)} = \theta{_0}x_0 + \theta{_1}x_1\) ; 多变量线性回归:\({{h}_{\theta }}\left( x \right)={{\theta }_{0}}{{x}_{0}}+{{\theta }_{1}}{{x}_{1}}+{{\theta }_{2}}{{x}_

对抗攻击方法BIM与PGD的区别

Basic iterative method(BIM):论文地址 笔记地址 Projected gradient descent(PGD):论文地址 笔记地址 区别1 来自于:https://www.sciencedirect.com/science/article/pii/S209580991930503X 1)BIM 将一步的FGSM直接扩展为多步方法: \[x'_{t+1}=Clip_{x, \epsilon} \{x'_{t}+\alpha\;

面面垂直的判断与证明

前言 判定线线垂直 图形语言 文字语言 符号语言 如果一条直线和一个平面垂直,那么它和这个平面的任意一条直线垂直,简称:线面垂直,则线线垂直 \(\left.\begin{array}{r}{a\perp\alpha}\\{b\subsetneqq\alpha}\end{array}\right\}\)\(\Rightarrow a\perp b\) 判定线面垂