首页 > TAG信息列表 > Tau

The Art of Prompting: Event Detection based on Type Specific Prompts

Motivation 之前的研究表明prompt可以提高模型在事件检测方面的性能,包括 使用特定structure 使用每种事件类型特定的query 原型 trigger 这些尝试启发对不同prompt效果的探究 Settings 作者在3种setting下做了实验: Supervised event detection Few-shot Event detection 两

看起来很高级的符号

rt,其实是用来方便自己学莫比乌斯反演的......像 \(\sum\) 这种东西干嘛要加,反正是给我自己看看的...... \(\varphi(n)\):\(\sum\limits_{i=1}^{n-1}\left[gcd(n, i) = 1\right]\) \(\tau(n)\):\(n\) 的约数个数。 \(\sigma(n)\):\(n\) 的约数之和。 \(d_k(n)\):约数 \(k\) 次方和。特

Test

LaTeX Test $\alpha$, $\beta$, $\gamma$, $\tau$, $\eta$, $\epsilon$, $\varepsilon$ $\partial$, $\nabla$, $\Delta$ $(\varphi \ast u)(x) = \langle u, \tau_x\widetilde{\varphi}\rangle$ $$(\widehat{u})^{\vee} = u = (u^{\vee})^{\wedge}, \q

logistic回归与牛顿法

Locally Weighted Regression None parametric learning algorithm. Need to keep training data in the memory. Formally fit \(\theta\) to minimize \[\sum_{i=1}^{m} w_{i}(y_{i}-\theta^Tx_i)^2 \]where \(w_i\) is a weighting function. \[w_i = e^{-\frac

论文分享:[2022 CVPR]Exact Feature Distribution Matching for Arbitrary Style Transfer and Domain Generali

​ 论文:Exact Feature Distribution Matching for Arbitrary Style Transfer and Domain Generalization 论文地址: Exact Feature Distribution Matching for Arbitrary Style Transfer and Domain Generalization 代码地址: https://github.com/YBZh/EFDM 以往一些领域泛化(Doma

【动手学深度学习】51 序列模型

%matplotlib inline import torch from torch import nn from d2l import torch as d2l T = 1000 # 总共产生1000个点 time = torch.arange(1, T + 1, dtype=torch.float32) #生成数据并加入噪音 x = torch.sin(0.01 * time) + torch.normal(0, 0.2, (T,)) d2l.plot(time, [x],

有向图最短偶环的多项式算法 (Björklund, Husfeldt, Kaski, 2022)

本文将对 STOC2022 的一篇论文: "The shortest even cycle problem is tractable" 进行解读. 虽然这是一篇很新的文章, 但是其核心技术还是相当通俗易懂的. 下文讨论的皆为无权图, 或者说, 环的长度就是经过的点的数目. 我们知道, 最短奇环是容易解决的, 因为最短奇回路 (closed w

51序列模型

点击查看代码 import torch from torch import nn from d2l import torch as d2l """

【模板】数论板子

数论分块 用于求解 \[\sum\limits_{i=1}^{n}f_i\cdot \left\lfloor\dfrac{n}{i}\right\rfloor \]亦可求解多维 \[\sum\limits_{i=1}^{\min(n_1,n_2,\cdots,n_k)}(f_i\cdot \prod\limits_{j=1}^{k}\left\lfloor\dfrac{n_j}{i}\right\rfloor) \]前提是求出了数论函数\(f(n)\)的

那些花里胡哨的素数们

昨晚看夏日重现外传的时候,看到了这样的一幕: 反素数?安全素数?啥玩意,听都没听说过,只听说过梅森素数和费马素数。然后就滚去百度了一波,发现竟然还有反素数的题,顺便还递归学习到了危险素数、索菲热尔曼素数、强素数的概念,于是就想写个博客,把这些花里胡哨的素数定义都记录下来,加深一波

srp-path笔记

Knapp 和 Cater 提出的广义互相关(Generalized Cross-Correlation , GCC)算法是最常用的TDOA估计方法。 1.1 问题背景 考虑只有两个传感器,即\(N=2\) 的单源自由场模型。 两个麦克风之间的TDOA估计可以等效为能够使麦克风输出的滤波信号之间的互相关函数(Cross-Correlation Function,CC

随机游走004 | 等公交车问题,Do it right now or never ?

0. 引言 本科的时候我们的教学楼和宿舍不在一个园区,往返的方式大致有步行、乘坐公交车、骑自行车三类。其中骑自行车车自然是最快捷的一种方式,但遇上冬天天冷风大,或是下雨天时,往往会考虑其他两种通勤方式。乘坐公交车大概是3分钟路程,速度最快,但缺点是要等,等待时间存在一定的不确定

壁面摩擦系数与第一层网格高度

1. 第一层网格节点到壁面距离 1.1 雷诺数计算: \[Re=\frac{\rho u d}{\mu} \]1.2 壁面摩擦系数计算: 更多公式参考http://www.cfd-online.com/Wiki/Skin_friction_coeffcient The skin friction coefficient, \(C_{f}\), is defined by: \[C_{f} \equiv \frac{\tau_{w}}{\frac{1}{2}

【深度强化学习】GAIL 与 IRL 的理解

GAIL 与 IRL 的理解 Inverse Reinforcement Learning 逆强化学习,顾名思义,就是与强化学习的过程反着走。 Reinforcement Learning 强化学习的过程一般如下: 首先我们有一个可以互动的环境;然后我们定义/设置一个奖励函数;Actor 通过不断与环境互动,来最大化奖励函数,找到一个最优的

全局路径规划 - 02 蚁群算法

算法流程: 设整个蚂蚁群中蚂蚁的数量为\(m\),城市的数量为\(n\),城市\(i\)与城市\(j\)之间的相互距离为\(d_{ij} \left( i,j=1,2,\cdots,n \right)\),\(t\)时刻城市与城市连接路径上的信息素浓度为\(\tau_{ij} \left(t\right)\)。初始时刻,各个城市间连接路径上的信息素浓度相同,不妨

HydroOJ H1081. ‘Riliane Lucifen d’Autriche’ teafrogsf 和他的四面镜子

HydroOJ H1081. ‘Riliane Lucifen d’Autriche’ teafrogsf 和他的四面镜子 ​ 不妨对 \(a\) 从大到小排序。我们定义一个状态为选取 \(m\) 个数的一种方案。那么要求的就是价值第 \(k\) 大的状态的价值。 ​ 设状态 \(S=\{a_1,a_2,\ldots a_m\}\)。定义 \(\operatorname{suc}(

[半监督学习] FlexMatch: Boosting Semi-Supervised Learning with Curriculum Pseudo Labeling

在 FixMatch 中, 对所有类别使用预定义的常量阈值来选择有助于训练的未标记数据, 因此无法考虑不同类别的不同学习状态和学习难度, UDA 也是如此. 为解决这个问题, 提出课程伪标签(Curriculum Pseudo Labeling, CPL), 这是一种根据模型的学习状态利用未标记数据的课程学习方

自回归模型的两种策略——马尔科夫假设与隐变量自回归模型

基础知识 序列模型的基础 由概率论中的贝叶斯公式可知 得到全概率公式 也就是每一个xt时刻的值,是与它之前所有时刻的值都有关系,因此如果可以通过前面的值推算出分布或者函数(不一定完全按照这个分布),那么就可以有准确的预测。 序列模型 自回归模型的两种策略 1、(马尔科夫假设)假

随机过程总结(3)--一些非平稳过程

平稳过程与一些非平稳过程 平稳过程 常用的概念是宽平稳过程(WSS),宽平稳过程要求该过程的一阶矩和二阶矩不时变,即: E { x ( t

详解策略梯度算法

详解策略梯度算法 引言 根据智能体学习的不同,可将其分为Value-based方法、Policy-based方法以及Actor-Critic方法。之前我们介绍的Q-learning、Saras和DQN都是基于价值去学习,虽然这种强化学习方法在很多领域都获得较多的应用,但是它的局限性也是比较明显。首先这类算法基本上都是处

如何通俗易懂地解释卷积?

  卷积这个概念,很早以前就学过,但是一直没有搞懂。教科书上通常会给出定义,给出很多性质,也会用实例和图形进行解释,但究竟为什么要这么设计,这么计算,背后的意义是什么,往往语焉不详。一个公式倘若倘若给不出结合实际的直观的通俗的解释(也就是背后的“物理”意义),就觉得少了点什么,觉得

BUAA_概率统计_Chap11_平稳过程

第十一章 平稳过程 11.1 严平稳过程 11.1.1 严平稳过程的定义 对于任意实数 \(\varepsilon\),如果随机过程 \(\{X(t), t\in T\}\) 的任意 \(n\) 维分布满足: \[\begin{aligned} & F(x_1, x_2, ..., x_n; t_1, t_2, ..., t_n)\\ = & F(x_1, x_2, ..., x_n; t_1 + \varepsilon, t_2

线性代数学习笔记——行列式(针对期末与考研)

文章目录 n阶行列式定义排列逆序、逆序数定义例子一 奇排列、偶排列 特殊行列式行列式性质余子式行列式计算 n阶行列式定义 设 A = (

基础拓扑学讲义 1.14 拓扑子空间开集族传递性

拓扑子空间开集族传递性 \(X\) 是拓扑空间,\(A\subset X\),则 \(A\) 上开集族 \[\tau_A = \{U\cap A~|~U \in \tau_X\} \]\(B\subset A\),则 \(B\) 上开集族 \[\begin{aligned} \tau_B &= \{V\cap B~|~ V \in \tau_A\}\\ &=\{ (U\cap A)\cap B~|~U\in

【题解】CF1479E School Clubs

CF1479E 题解 前置知识:鞅与停时定理 鞅 我们有一个随机过程 \(X_0,X_1, ...\)。如果 \(\forall n \in \mathbb N, \ E(Y_n) < \infty\) 且 \(\forall n \in \mathbb N^+, \ E(Y_{n + 1}|X_n,X_{n-1},...,X_0) = E(Y_n)\),则我们称 \(Y_0, Y_1, ...\) 为该随机过程的鞅。 离散时间鞅