其他分享
首页 > 其他分享> > 弱标签问题相关论文略读

弱标签问题相关论文略读

作者:互联网

目录

1Transductive Propagation Network ( ICLR 2019)

2 Temporal Coherence Label Propagation (ICLR 2022, Under Review)

3 FlexMatch (NIPS2021)

4 Conditional Score-based Diffusion Imputation (NIPS 2021) 

5 Bilinear Temporal-Spectral Fusion (ICLR 2022 Under Review) 

 

1Transductive Propagation Network ( ICLR 2019)

文章链接

代码

简介:

Few-shot学习的目标是学习一个即使在每个类只有有限数量的训练实例的情况下也能很好地泛化的分类器。最近引入的元学习方法通过在大量的多类分类任务中学习一个通用分类器,并将模型推广到一个新的任务中来解决这个问题。然而,即使有了这种元学习,新分类任务中标签少的数据问题仍然存在。

本文提出了一种直推式传播网络(TPN),是一种新的元学习框架,可一次性对整个测试集进行分类,以缓解标签少的数据问题。具体来说,我们建议通过学习一个利用数据中的流形结构的图构造模块,学习将标签从有标记的实例传播到未标记的测试实例。TPN以端到端方式联合学习特征嵌入参数和图构造。

 

2 Temporal Coherence Label Propagation (ICLR 2022, Under Review)

文章链接

代码:可以参考文章附录

简介:

缺乏标签的时间序列数据被认为是其相关模型广泛适用性的障碍。同时,主动学习(Active learning)已经被成功地采用,可以减少在各种任务中的标记人力。本文提出了一个重要的模型:时间序列主动学习。受时间序列数据的时间一致性的启发,连续的数据点往往有相同的标签,设计了我们的标签传播框架,称为TCLP,自动分配一个查询的标签,在一个准确估计的时间序列段内的数据点。

 

3 FlexMatch (NIPS2021)

文章链接

代码

简介:

    与其他已有半监督算法一样,FixMatch为所有类使用预定义的常量阈值来选择有助于训练伪标注数据,因此没有考虑不同类的不同学习状态和学习困难。为了解决这一问题,我们提出了课程伪标记(CPL),一种根据模型的学习状态利用伪标注数据的课程学习方法。

 

4 Conditional Score-based Diffusion Imputation (NIPS 2021)

文章链接

代码

简介:

    时间序列中缺失值的估算在医疗保健和金融领域有很多应用。虽然自回归模型是时间序列imputation的自然候选,但基于分数的扩散模型(score-based diffusion models)最近在图像分类和音频合成等任务中优于现有的自回归模型,在时间序列imputation方面具有广阔的前景。

在本文中,我们提出了基于条件分数的扩散模型(CSDI),一种新的时间序列估算方法,利用基于分数的扩散模型,以观测数据为条件。与现有的基于分数的方法不同,条件扩散模型是明确训练的归因,可以利用观测值之间的相关性。在医疗保健和环境数据方面,CSDI在流行的性能指标上比现有的概率估算方法提高了40-65%。

 

5 Bilinear Temporal-Spectral Fusion (ICLR 2022 Under Review)

文章链接

简介:

多变量时间序列的无监督表示学习具有实际意义,但由于其复杂的动态性和稀疏的标注,也是一个具有挑战性的问题。现有的研究主要采用对比学习的框架,采用数据增强技术对正反两方面进行样本抽取,进行对比训练。然而,他们的表征学习框架设计存在两个缺陷。

首先,我们回顾了已有的时间序列的增强方法,发现它们大多使用的是由时间切片导出的分段级增强,这可能会由于全局上下文的缺失而导致采样偏差和错误的优化和假阴性。其次,他们都没有注意在特征表示中加入光谱信息和时间-光谱关系。

为了解决这些问题,我们提出了一个新的框架,即双线性时间光谱融合(BTSF)。与段级增强相比,我们通过简单地在整个时间序列上应用dropout来利用实例级增强,以更好地保存全局上下文并捕获长期依赖。此外,设计了一个迭代双线性时间-频谱融合模块,以显式编码丰富的时频对的亲和关系,并通过与Spectrum-to-Time (S2T)和time-的跨域交互,迭代地改进时间序列的表示。

在时间序列的分类、预测和异常检测三个主要的实际任务上进行了广泛的实验,首次对所有三个任务进行了评价。

 

标签:标签,模型,论文,学习,时间,略读,序列,ICLR
来源: https://www.cnblogs.com/liuzhen1995/p/15544619.html