首页 > TAG信息列表 > partial

Partial Person Re-identification(一)

作者针对之前一些模型都是假设给以完整行人图像probe情况下,进行行人重识别任务,独辟蹊径,主要解决reid最难处理的遮挡问题,研究给以不完整的行人图像块来进行ReID任务建模。   下图所示为我们实际中的检索图像,以及我们手工框出来的输入图像,及对应的库中的图像。 针对局部行人检索

Deep Partial Multi-View Learning(深度部分多视角学习)

存在问题:很难对不同视图之间的复杂关联进行建模,特别是在视角缺失的情况下。 提出方法:为了解决上述问题,本文提出一种新的框架,称为交叉局部多视图网络(CPM-Nets),提出该方法的目的在于充分灵活的利用多个局部视图。 方法细节: 首先给出了多视图表示完备性和通用性(versatility)的形式

反向传播算法

在介绍反向传播算法前,先看看矩阵微分的概念。 矩阵微积分 为了书写简便,我们通常把单个函数对多个变量或者多元函数对单个变量的偏导数写成向量和矩阵的形式,使其可以被当成一个整体处理. 标量关于向量的偏导数 对于 \(M\) 维向量 \(\boldsymbol{x} \in \mathbb{R}^{M}\) 和函数

Warning message "Partial Early Aggregation/Distinct running with reduced memory"

Warning message "Partial Early Aggregation/Distinct running with reduced memory" https://www.ibm.com/support/pages/warning-message-partial-early-aggregationdistinct-running-reduced-memory Troubleshooting Problem Warning message &quo

Multidimensional partial sums & sum over subsets & inverse of möbius

高维前缀和 给一个 intrada 性质的问题: 求 \(\displaystyle F[mask] = \sum_{i \subseteq mask} A[i]\) 这个形式看起来会很像一个 and-convolution,虽然并不完全是但这很重要。有个经典的朴素做法是以 \(O(3^n)\) 枚举子集,从这个做法可以看出,\(A[x]\),其中 \(x\) 有 \(k\) 个 off

偏函数partial

前言 引入例子: from functools import partial def demo(x, y, z): print(x,y,z) new_demo = partial(demo,1) new_demo(2,3) 输出:1 2 3 直观感受: 就是返回一个已经固定了部分参数的和原函数功能一样的函数 再次举例: new_demo = partial(demo,x=2) new_demo(2,3) #Type

数学-林士谔算法

代数基本定理 1 代数基本定理 任何复系数一元n次多项式(n至少为1)方程在复数域上至少有一根。 n次复系数多项式方程在复数域内有且只有n个根,重根按重数计算。 证明不会 2 虚根成对定理 在实系数多项式分解中,虚根成对分解,实根单一分解,因此对于奇数次多项式,一定有实根。 简单理解: 假设

2.单变量线性回归

1. 一元线性回归(模型描述) 常用符号: m : 训练样本的数量 x : 输入变量/特征 y : 输出变量/预测的目标变量 (x, y): 表示一个训练样本 $$(x^{(i)}, y^{(i)})$$ : 表示特殊训练样本/第i个训练样本 监督学习的工作过程: 2. 代价函数 在线性回归中我们要解决的是一个最小化的问题 Idea:

ubuntu编译内核报错-couldn't be accessed by user '_apt'. - pkgAcquire::Run (13: Permission d

现象 在ubuntu上编译内核时,apt-get source时出现如下warning: W: Download is performed unsandboxed as root as file '/var/cache/apt/archives/partial/samba-libs_2%3a4.5.8+dfsg-0ubuntu0.17.04.1_i386.deb' couldn't be accessed by user '_apt'. - pkgAcqu

CF223C Partial Sums

典 将前缀和看成乘上 \(1+x+x^1+x^2+...+x^n\),快速幂加多项式乘法即可。 考虑先前缀和一次,将 \(k-1\)。 考虑记 \(k\) 阶前缀和为 \(sum_{(k,i)}\) 那么 \(sum_{(k,i)}=sum_{(k,i-1)}+sum_{(k-1,i)}\) 抽象成网格图上的游走,每次可以向下或者向右走一格。 第一行的点对第 \(k\) 行

【Deep Learning】神经网络与深度学习

本文为吴恩达 Deep Learning 笔记 深度学习概述 什么是神经网络: Neural Network 神经网络 Neuron 神经元 Rectified Linear Unit (ReLU) 线性整流函数 房价预测案例 用神经网络进行监督学习: Supervised Learning / Unsupervised Learning 监督学习 / 无监督学习 Structured

强化学习-学习笔记3 | 策略学习

Policy-Based Reinforcement Learning. 策略学习。 本讲用一个神经网络来近似 policy 函数,即 Policy Network,策略网络。 3. 策略学习 3.1 策略函数 我们回顾一下 策略函数 Policy Function : 策略函数 \(\pi(a | s)\)是一个 概率密度函数(PDF),输入时当前状态s,输出为一个概率分布,表征

强化学习-学习笔记2 | 价值学习

Value-Based Reinforcement Learning : 价值学习 2. 价值学习 2.1 Deep Q-Network DQN 其实就是用一个神经网络来近似 \(Q*\) 函数。 agent 的目标是打赢游戏,如果用强化学习的语言来讲,就是在游戏结束的时候拿到的奖励总和 Rewards 越大越好。 a. Q-star Function 问题:假设知道了

线性回归算法

预测函数 单变量线性回归:\(h{_\theta(x)} = \theta{_0} + \theta{_1}x\);令\(x_0 = 1\);则\(h{_\theta(x)} = \theta{_0}x_0 + \theta{_1}x_1\) ; 多变量线性回归:\({{h}_{\theta }}\left( x \right)={{\theta }_{0}}{{x}_{0}}+{{\theta }_{1}}{{x}_{1}}+{{\theta }_{2}}{{x}_

【论文笔记】(JSMA)The Limitations of Deep Learning in Adversarial Settings

摘要 本文是早期的对抗文章,本文最最主要的工作是:提出了一个生成对抗样本的算法--JSMA(Jacobian Saliency Map)。然后在实验阶段,作者首先证明了这个方法使用的扰动很小,但对抗性很强,然后给出了一系列的方法用于计算不同的自然样本和不同的类别被攻击的难易程度,最后证明了JSMA 对抗样本

【论文笔记】(知识蒸馏)Distilling the Knowledge in a Neural Network

摘要 模型平均可以提高算法的性能,但是计算量大且麻烦,难以部署给用户。《模型压缩》这篇论文中表明,知识可以从复杂的大型模型或由多个模型构成的集成模型中压缩并转移到一个小型模型中,本文基于这一观点做出了进一步研究:通过知识蒸馏(knowledge distillation)显著提高了转移后的小型模

一元线性回归的Python实现

目录1 问题的提出2 原理2.1 代价函数2.2 模型的评价2.2.1 皮尔逊相关系数2.2.2 决定系数3 Python 实现3.1 不调sklearn库3.2 调 sklearn 库4 梯度下降法4.1 原理4.2 Python实现参考 1 问题的提出 对于给定的数据集 \(D = \{(x_1,y_1),(x_2,y_2),\cdots,(x_m,y_m)\}\),线性回归 (lin

MathJax 与 markdown :插入数学公式

\[\theta_i = \theta_i - \alpha\frac\partial{\partial\theta_i}J(\theta) \]\[\vec r = \vec p + \vec a t \]参考 -使用 Markdown + MathJax 在博客里插入数学公式

Andrew Ng Machine Learning Notes

Source: Coursera Machine Learning provided by Stanford University Andrew Ng - Machine Learning | Coursera Introduction definition:  A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if

contrastive loss对比损失函数及梯度计算

Contrastive loss 最初源于 Yann LeCun “Dimensionality Reduction by Learning an Invariant Mapping” CVPR 2006。 该损失函数主要是用于降维中,即本来相似的样本,在经过降维(特征提取)后,在特征空间中,两个样本仍旧相似;而原本不相似的样本,在经过降维后,在特征空间中,两个样本仍旧

backward函数中gradient参数的一些理解

当标量对向量求导时不需要该参数,但当向量对向量求导时,若不加上该参数则会报错,显示“grad can be implicitly created only for scalar outputs”,对该gradient参数解释如下。 当\(\mathbf y\)对\(\mathbf x\)求导时,结果为梯度矩阵,数学表达如下: \[\frac{\partial \mathbf{y}}{\parti

写TS效率大提升,TypeScript中常用内置工具类型Omit、Pick、Partial、Required、Readonly、Exclude 、Extract

TS中常用的工具映射类型,让写TS时效率大大提升,避免无意义的重复性定义。 1.Omit 省略/剔除 顾名思义 可以剔除 已定义对象中 自己不需要的一部分形成新的定义类型。 interface UserObj { readonly name: string; // readonly 只读属性 只能初始化定义 不能二次赋值 age:

斯托克斯定理 Stokes Theorem

\[\int_{\partial M}\omega=\int_M \text d\omega \]斯托克斯公式多么好看呀。 先准备一些微分几何的知识。 (1)设 \(M\) 是豪斯多夫空间(任意不同的两点一定存在不相交的邻域),若对任意一点 \(x\in M\),都存在一个邻域同胚于 \(n\) 维欧几里得空间 \(\R^n\) 的一个开集,则称 \(M\) 是一

net6 - System.ComponentModel.DataAnnotations Attribute

using System; using System.Web.DynamicData; using System.ComponentModel.DataAnnotations; [MetadataType(typeof(CustomerMetaData))] public partial class Customer { } public class CustomerMetaData {   RangeAttribute 类 [Range(10, 1000, ErrorMess

Logistic回归——原理加实战

Logistic回归 1. 什么是Logistic回归 Logistic是一种常用的分类方法,属于对数线性模型,利用Logistic回归,根据现有数据对分类边界建立回归公式,以此进行分类。 回归:假设现有一些数据点,我们用一条直线对这些点进行拟合,这个拟合过程就称为回归 2. Logistic回归与Sigmoid函数 Sigmoid函数