首页 > TAG信息列表 > Discriminative
DIMP:Learning Discriminative Model Prediction for Tracking 学习判别模型预测的跟踪
原文链接 论文地址:https://arxiv.org/pdf/1904.07220v1.pdf 代码:pytracking 中有 dimp 的代码 摘要 与大多数其他视觉问题相比,跟踪需要在推理阶段在线学习鲁棒的特定于目标的外观模型。为了能够进行端到端的培训,目标模型的在线学习因此需要自身嵌入到跟踪体系结构中。由于这些困难Beyond the Deep Metric Learning 论文笔记
Beyond the Deep Metric Learning: Enhance the Cross-Modal Matching with Adversarial Discriminative Domain Regularization 该论文提出了一个ADDR的结构来为数据的特征获得域不变性,进而为获得更好的跨模态检索性能。 与一般的域不变性辨别器相比,该论文认为不同的数据对Multimodal Discriminative Binary Embedding for Large-Scale Cross-Modal Retrieval--2016.10高新波团队
Multimodal Discriminative Binary Embedding for Large-Scale Cross-Modal Retrieval 一.研究内容 目前,多模态hash的研究主要是为了学习兼容的二进制码,以保留标签给出的语义信息。作者认为这些方法忽略了哈希学习过程中哈希码的判别性,这导致来自不同类别的哈希代不易区分,从TIP2018跟踪算法LADCF配置(Learning Adaptive Discriminative Correlation Filters (LADCF))
1、论文下载地址: Learning Adaptive Discriminative Correlation Filters via Temporal Consistency Preserving Spatial Feature Selection for Robust Visual Object Tracking [paper] 2、代码下载地址: https://github.com/XU-TIANYANG/LADCF 3、运行demo.m 4、运行成功【paper笔记】ESAM: Discriminative Domain Adaptation with Non-Displayed Items to Improve Long-Tail
ESAM: Discriminative Domain Adaptation with Non-Displayed Items to Improve Long-Tail Performance 阿里解决长尾问题的方法,迁移学习 文章基本信息ABSTRACT1 INTRODUCTION2 PROPOSED METHOD2.1 Preliminaries2.2 BaseModel2.3 Entire Space Adaptation Model (ESAM)Learning Generalizable and Identity-Discriminative Representations for Face Anti-Spoofing
1.论文的创新点: 1.提出了一个TCP(完全成对混淆Total Pairwise Confusion)loss用来增加CNN的泛化能力。 2.将FDA(快速域适应Fast Domain Adaptation)整合到CNN中,以减轻domain changes带来的影响。 3.提出了一个多任务学习方式,即用一个CNN同时完成活体检测和人脸识别两个任务论文阅读笔记(三十三)【CVPR 2019】:Joint Discriminative and Generative Learning for Person Re-identification
Introduction (1)Motivation: 当前提出的GAN方法存在生成器和reid判别模型分离,reid模块直接用生成的图像进行训练,效果受到局限。 (2)Contribution: 作者提出了一个联合判别、生成学习的网络:DG-Net。该策略引入了生成模块,将每个行人图像编码到两个空间:样貌空间编码行人的外貌和其它相DiMP: Learning Discriminative Model Prediction for Tracking
Learning Discriminative Model Prediction for Tracking 2020-03-26 11:45:15 Paper: ICCV-2019 Code: https://github.com/visionml/pytracking 1. Background and Motivation: