首页 > TAG信息列表 > Latent
Latent Space 隐空间zz
If I have to describe latent space in one sentence, it simply means a representation of compressed data. 隐空间(Latent Space) 隐空间是 压缩数据的一个表示。隐空间的作用是为了找到 模式(pattern) 而学习数据特征并且简化数据表示。 数据压缩 指用比原来表示更Model-Based Reinforcement Learning via Latent-Space Collocation
发表时间:2021(ICML 2021) 文章要点:这篇文章提出了latent collocation method (LatCo)算法,用来planning状态序列,而不是动作序列,来解决long horizon的planning问题(it is easier to solve long-horizon tasks by planning sequences of states rather than just actions)。主要思路就是拓端tecdat|R语言潜类别混合效应模型(Latent Class Mixed Model ,LCMM)分析老年痴呆年龄数据
原文链接: http://tecdat.cn/?p=24647 原文出处:拓端数据部落公众号 背景和定义 线性混合模型假设 N 个受试者的群体是同质的,并且在群体水平上由独特的曲线 Xi(t)β 描述。相比之下,潜在类别混合模型在于假设人口是异质的,并且由 G 潜在类别的受试者组成,其特征是 G 平均轨迹曲线。 潜BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning)
BYOL论文笔记(Bootstrap Your Own Latent A New Approach to Self-Supervised Learning) 一、基本架构 二、BYOL实现细节 数据增强:使用在SimCLR中同样的一系列数据增强,包括随机水平翻转、颜色扰动、高斯模糊等。 网络架构:使用resnet50、resnet50(1x)作为基本的编码器,使用时间魔法,HyperStyle算法给你“返老还童”的真实体验
来源:Jack Cui 今天给大家分享一个新算法 「HyperStyle」。 人脸编辑再得一分,牛逼! 「HyperStyle」还要更逼真一些,直接上效果: 一个美女: 算法可以一键"返老还童": 这效果,你打几分? 可以变年轻,当然也可以反向操作。 一键变老: 再比如换个发型: 最后放一张整体效果图吧: 除了这些GFPGAN源码分析—第五篇
2021SC@SDUSC 源码:archs\gfpganv1_clean_arch.py 本篇主要分析gfpganv1_clean_arch.py下的以下两个类 class StyleGAN2GeneratorCSFT (StyleGAN2GeneratorClean):StyleGan class ResBlock(nn.Module):残差网络 目录 class StyleGAN2GeneratorCSFT (StyleGAN2GeneratorClean): _inLearning Latent Dynamics for Planning from Pixels
发表时间:2019(ICML 2019) 文章要点:文章提出了一个叫Deep Planning Network (PlaNet)的模型来学习环境的dynamics,然后用online planning的方式在这个模型构建的latent space上进行planning得到action。这里面的关键就是model要能够准确预测多步的reward(the dynamics model must accuDREAM TO CONTROL: LEARNING BEHAVIORS BY LATENT IMAGINATION
发表时间:2020(ICLR 2020) 文章要点:文章提出一个叫Dreamer的算法,就是去学一个world model,然后强化学习在compact state space上进行。就相当于所有的学习过程都不是和真正的环境交互学习,而是在world model上进行,所以把这个东西叫做Dreamer,相当于梦里学习,梦里啥都有。 Model包含三个LAFEAT: Piercing Through Adversarial Defenses with Latent Features论文解读
摘要 在这篇文章中,我们展示了特定“robust“模型中的隐变量特征对于对抗攻击来说是非常易受攻击的。基于这一点,我们提出了一个统一的 l ∞ −Context-aware Dynamics Model for Generalization in Model-Based Reinforcement Learning
发表时间:2020(ICML 2020) 文章要点:这篇文章想说model based方法在data efficiency和planning方面都具有天然优势,但是model的泛化性通常是个问题。这篇文章提出学一个context相关的latent vector,然后用model去predict的时候会基于这个latent vector去做,这在一定程度上捕捉了环境变化[论文理解] Understanding self-supervised and contrastive learning with "Bootstrap Your Own Latent&q
Understanding self-supervised and contrastive learning with "Bootstrap Your Own Latent" (BYOL) Intro 主要探讨一下BYOL的问题,其他略过,文章发现了BYOL的成功似乎还是没有逃过负样本的使用,提出BYOL其实利用BatchNorm隐式的使用到了负样本的假说,并且有实验来作证。 FindingsNeural Discrete Representation Learning(VQ-VAE)
发表时间:2018(NIPS 2017) 文章要点:文章设计了一个新的基于VAE的自编码器Vector Quantised-Variational AutoEncoder (VQ-VAE)。区别在于之前的自编码器去学latent representation的时候都是去学一个连续的向量,这篇文章学了一个离散的表示。注意,离散并不意味着one-hot,只要是离散的论文学习笔记(5):PULSE: Self-Supervised Photo Upsampling via Latent Space Exploration of Generative Models
目录 一、摘要 一、摘要 主要思想:区别于现有方法中大多在LR图像上一点点增加细节,PULSE(Photo Upsampling via Latent Space Exploration)遍历HR自然图像的流形空间,找到下采样后为原始LR图像的HR自然图像。PULSE方法是完全自监督的。所提出的方法可以基于任何的下采样形式(BERT论文阅读(二): CG-BERT:Conditional Text Generation with BERT for Generalized Few-shot Intent Detection
目录 The proposed method Input Representation The Encoder The Decoder fine-tuning discriminate a joint label space consisting of both existing intent which have enough labeled data and novel intents which only have a few examples for each class. ==>StyleGan
虽然很多人写过关于StyleGan的帖子,为了加深自己的理解,决定再啰嗦一遍。 StyleGan生成器 这部分用来介绍StyleGan生成器网络结构图。示意图如下 (1)传统的Gan生成器,由latent code 作为输入,生成图片。而StyleGan却是由一个常量通过生成网络生成图片的。而在StyleGan中latent code 经过GLEAN: Generative Latent Bank for Large-Factor Image Super-Resolution
GLEAN 作者认为目前主要有两类SR方法。一是 ESRGAN和 SinGAN这种Feedforward Network。这类方法主要是encoder-decoder的模式。 最近用得比较多的方法GAN-Inversion。GAN-inversion通过找到GAN网络中的latent verctor(latent code),再使用这个latent vector通过预训练GAN可解释性解读:Closed-Form Factorization of Latent Semantics in GANs
GAN可解释性,利用范数寻找语义向量 论文名:Closed-Form Factorization of Latent Semantics in GANs摘要 原理介绍实验在对这种方式进行的复现中,我选用了animeface这个数据集。 论文名:Closed-Form Factorization of Latent Semantics in GANs 摘要 GAN的Adversarial Latent Autoencoders(ALAE)学习笔记
原文:https://arxiv.org/abs/2004.04467 代码(官方Pytorch版):https://github.com/podgorskiy/ALAE 文章目录 前言论文核心模型和优化方法StyleALAE 网络结构算法总结参考 前言 自动编码器网络(Autoencoder networks)是一种无监督的方法,目的是通过同时学习编码器-生成器Controllable Unsupervised Text Attribute Transfer via Editing Entangled Latent Representation
Controllable Unsupervised Text Attribute Transfer via Editing Entangled Latent Representation Controllable Unsupervised Text Attribute Transfer via Editing Entangled Latent Representation 由于将风格和内容分开可能会破坏完整性,这里采用风格和内容纠缠在一起来[论文分享] DHP: Differentiable Meta Pruning via HyperNetworks
转: [论文分享] DHP: Differentiable Meta Pruning via HyperNetworks authors: Yawei Li1, Shuhang Gu, etc. comments: ECCV2020 cite: [2003.13683] DHP: Differentiable Meta Pruning via HyperNetworks (arxiv.org) code: ofsoundof/dhp: This is the official implementatio论文阅读笔记(六十一)【ICCV2017】:Identity-Aware Textual-Visual Matching with Latent Co-attention
Introduction 本文提出了一个两阶段的identity-aware图文匹配框架: 第一阶段通过引入Cross-Modal Cross Entropy (CMCE) 损失来学习identity-aware特征表示。训练得到初始的匹配结果。但作者认为第一阶段匹配的结果只是粗略的,图文特征不能紧密的匹配。因此设计第二阶段,引入了laten多视图子空间聚类/表示学习(Multi-view Subspace Clustering/Representation Learning)
多视图子空间聚类/表示学习(Multi-view Subspace Clustering/Representation Learning) 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 这篇博文主要对四篇文章(1)"Low-Rank Tensor Constrained Multiview Subspace Clustering"(2015 ICCV),(2)"Tensorized Multi-vieCascaded Deep Video Deblurring Using Temporal Sharpness Prior阅读笔记
1.本文创新点: 提出了一个CNN,可以同时估计光流和视频中模糊的隐藏帧 为了更好的研究连续帧的特性,在CNN模型中开发了一种时间清晰度。 2.算法介绍: 该算法包含optical flow estimation module, latent image restoration module, temporal sharpness piror. optical flow estimaImage Processing Using Multi-Code GAN Prior, CVPR2020
论文:Image Processing Using Multi-Code GAN Prior, CVPR2020 代码:https://github.com/genforce/mganprior 这是来自香港中文大学周博磊老师的工作。 尽管生成式对抗网络(GANs)在图像合成方面取得了成功,StyleGAN和BigGAN能够合成高质量的图像。这些方法能够从大量观测数据中捕捉多潜在狄利克雷分配(Latent Dirichlet Allocation,LDA)
文章目录1. 狄利克雷分布2. 潜在狄利克雷分配模型3. 学习推理4. sklearn.decomposition.LatentDirichletAllocation 潜在狄利克雷分配(latent Dirichlet allocation,LDA),作为基于贝叶斯学习的话题模型,是潜在语义分析、概率潜在语义分析的扩展,于2002年由Blei等提出。LDA在文本数