首页 > TAG信息列表 > ell

论文解读(g-U-Nets)《Graph U-Nets》

论文信息 论文标题:Graph U-Nets论文作者:Hongyang Gao, Shuiwang Ji论文来源:2019,ICML论文地址:download 论文代码:download  1 Introduction   受到类似 encoder-decoder architecture 的 U-Nets 影响,作者希望能在图数据上使用这种 pooling 和 up-sampling 的操作。   N

【论文笔记】Towards Certifying l-infinity robustness using neural networks with l-infinity-dist neurons

原文地址 slides GitHub 代码 本文发表于 2021 ICML,提出了一个新颖的神经网络计算方式:对于网络中的每个神经元,不采用传统的线性转换+非线性激活函数的方式,而是计算输入与参数之间的 \(\ell_{\infty}\)-distance,作者将其称为 \(\ell_{\infty}\)-dist net,网络中的神经元称为 \(\ell_

Lagrange polynomial

Lagrange polynomial (All the below are from Wiki.) Wiki: Lagrange polynomials are used for polynomial interpolation of a given set of points \((x_j,y_j)\). Given a set of k+1 data points: \[(x_0,y_0),\cdots,(x_i,y_i),\cdots,(x_k,y_k) \]The interpo

论文翻译:2021_AEC IN A NETSHELL: ON TARGET AND TOPOLOGY CHOICES FOR FCRN ACOUSTIC ECHO CANCELLATION

论文地址:https://ieeexploreieee.53yu.com/abstract/document/9414715 Netshell 中的 AEC:关于 FCRN 声学回声消除的目标和拓扑选择 摘要:   声学回声消除(AEC)算法在信号处理中具有长期稳定的作用,其方法可以改善诸如汽车免提系统、智能家居和扬声器设备或网络会议系统等应用的性

Rank & Sort Loss for Object Detection and Instance Segmentation 论文解读(含核心源码详解)

♥ 第一印象 Rank & Sort Loss for Object Detection and Instance Segmentation 这篇文章算是我读的 detection 文章里面比较难理解的,原因可能在于:创新的点跟普通的也不太一样;文章里面比较多公式。但之前也有跟这方面的工作如 AP Loss、aLRPLoss 等。它们都是为了解决一个问题:单

[DP 浅析]四边形不等式优化

下面的证明的思想多数为数学归纳、分类讨论或反证法。 简述 定义 \(w(i,j)\) 为一个定义在 \(\mathbb{Z}\) 上的二元函数,有如下定义: 定义 1:如果对于任意 \(\ell_1\leq \ell_2\leq r_1\leq r_2\),都有 \[w(\ell_1,r_1)+w(\ell_2,r_2)\leq w(\ell_1,r_2)+w(\ell_2,r_1) \]成立,那么

论文解读SDCN《Structural Deep Clustering Network》

前言   主体思想:深度聚类需要考虑数据内在信息以及结构信息。 考虑自身信息采用 基础的 Autoencoder ,考虑结构信息采用 GCN。 1.介绍   在现实中,将结构信息集成到深度聚类中通常需要解决以下两个问题。   1、在深度聚类中应该考虑哪些结构性信息? 结构信息表明

Mind the Box: $\ell_1$-APGD for Sparse Adversarial Attacks on Image Classifiers

目录概主要内容 Croce F. and Hein M. Mind the box: \(\ell_1\)-APGD for sparse adversarial attacks on image classifiers. In International Conference on Machine Learning (ICML), 2021. 概 以往的\(\ell_1\)攻击, 为了保证 \[\|x' - x\|_1 \le \epsilon, x' \

机器学习基石 之 多分类(Multi-Classification)

多分类(Multi-Classification) One-Versus-All (OVA) Decomposition 以逻辑回归为例,其思路是将其中一类和剩下的类分开,做二分类,并对全部类做次操作,这样便有了K个逻辑回归分类器,只要取其中概率最大hypothesis所对应的分类作为分类结果即可。 for \(k \in \mathcal { Y }\) , obtain

Symmetric Cross Entropy for Robust Learning with Noisy Labels 笔记

SCE笔记 《Symmetric Cross Entropy for Robust Learning with Noisy Labels》 文章目录 SCE笔记存在的问题提出的方法 Cross Entropy的局限性SCE的具体做法定义鲁棒性分析梯度分析RCE和MAE 实验实验准备实验验证实验设置:类标签的学习预测置信度和分布可视化参数分析消融实

【论文笔记】DELVING INTO TRANSFERABLE ADVERSARIAL EXAMPLES AND BLACK-BOX ATTACKS

【摘要】 深层神经网络的一个有趣的特性是存在对抗性样本,它可以在不同的体系结构之间进行转换。这些可转移的通用示例可能严重阻碍基于神经网络的深层次应用。以往的工作主要是利用小规模数据集来研究可移植性。在这项工作中,我们首先对大模型和大规模数据集的可转移性进行了

Second Order Optimization for Adversarial Robustness and Interpretability

目录概主要内容(4)式的求解超参数 Tsiligkaridis T., Roberts J. Second Order Optimization for Adversarial Robustness and Interpretability. arXiv preprint axXiv 2009.04923, 2020. 概 也算是一种对抗训练吧, 有区别的是构造对抗样本的方式, 以及用的是惩罚项而非仅用对

Image Processing Using Multi-Code GAN Prior, CVPR2020

论文:Image Processing Using Multi-Code GAN Prior, CVPR2020 代码:https://github.com/genforce/mganprior 这是来自香港中文大学周博磊老师的工作。 尽管生成式对抗网络(GANs)在图像合成方面取得了成功,StyleGAN和BigGAN能够合成高质量的图像。这些方法能够从大量观测数据中捕捉多

拉格朗日插值法

拉普兰德 拉格朗日差值法,它可以通过\(n\)个点来构造出一个\(n-1\)次多项式\(f(x)\)(恩。应该是最多\(n-1\)次,因为有些高次项的系数可能是\(0\))。 8说了。。。康题:P4781 【模板】拉格朗日插值 题意:给\(n\)个点\((x_1,y_1),\dots,(x_n,y_n)\),你要构造出一个多项式\(f(x)\),使得\(\fora

A pure L1-norm principal component analysis

目录 问题 细节 \(L_1-PCA\)的损失函数 \(L_1-PCA\)算法 @ A pure L1-norm principal component analysis 虽然没有完全弄清楚其中的数学内涵,但是觉得有趣,记录一下. 问题 众所周知,一般的PCA(论文中以\(L_2-PCA\)表示)利用二范数构造损失函数并求解,但是有一个问题就是会对

CVPR2019 论文解读| BASNet:关注边界的显著性目标检测

作者 | 文永亮 学校 | 哈尔滨工业大学(深圳) 研究方向 | 目标检测 概要 ​ 这是一篇发表于CVPR2019的关于显著性目标检测的paper,《BASNet:Boundary-Aware Salient Object Detection》[1]显而易见的就是关注边界的显著性检测,主要创新点在loss的设计上,使用了交叉熵、结构相似性损失、Io

Push-Diging

Push-DIGing Algorithm For $k=0,1,2, \cdots$ do       $\mathbf{u}(k+1)=\mathbf{C}(k)(\mathbf{u}(k)-\alpha \mathbf{y}(k))$       $\mathbf{v}(k+1)=\mathbf{C}(k) \mathbf{v}(k) ; \mathbf{V}(k+1)=\operatorname{diag}\{\mathbf{v}(k+1)\}$       $\m

An interesting combinational problem

Nowadays, I learnt from Liu Ben a question asked in the interview of ENS.  Assume $m,n$ are two coprime odd number, consider the inteval $[0,mn]$. We cut the inteval by $m,2m,\ldots,(n-1)m$ and $n, 2n,\ldots, (m-1)n$ into $m+n+1$ pieces of small inteva