首页 > TAG信息列表 > autoencoders

Variational Autoencoders for Collaborative Filtering

目录概整体框架细节代码 Liang D., Krishnan R. G., Hoffman M. D. and Jebara T. Variational autoencoders for collaborative filtering. In International Conference on World Wide Web (WWW), 2018. 概 一种基于 VAE 的协同过滤方法. 整体框架 \(\bm{x}_u \in \mathbb

autoencoders and variational autoencoders (变分自动编码器)

一、AE https://medium.com/@jain.yasha/generative-models-an-overview-5079a1e9226a https://zhuanlan.zhihu.com/p/58111908 1.在制作AE时,我们需要考虑的关键因素是,决定潜在空间向量的维度。因为空间的维数越小,计算速度越快,但生成的图像质量越差。 2.autoencoder=encoder+decod

Masked Autoencoders

研究背景 我们之前介绍了 ViT(传送门),在 ViT 模型中我们也知道了他想要有超过 CNN 的效果的话就需要在超大数据集上进行预训练,在 ImageNet 1K 的效果其实并没有 ResNet 好。这样的话,如果我们需要重新对 ViT 进行训练的话,他的效率是不高的。于是这篇 MAE 在 ViT 的方法上进行了

【论文笔记】MAE: Masked Autoencoders Are Scalable Vision Learners

论文地址:http://arxiv.org/abs/2111.06377 项目地址:(非官方)https://github.com/pengzhiliang/MAE-pytorch 本文的主要观点是:掩码自编码器 (MAE) 是适用于计算机视觉的可扩展自监督学习器。 如果说ViT对应于NLP中的Tranformer,MAE实际上是对应于BERT。 MAE的核心思想是随机屏

Masked Autoencoders Are Scalable Vision Learners 论文研读

NLPCVTransformerViTBERTMAE 文章目录 1. 标题2. 摘要3. 模型架构4. 结论 1. 标题   Masked Autoencoders Are Scalable Vision Learners指的是带掩码的自编码器是可扩展的视觉学习器。其中这里的Autoencoders指的是模型的输入和输出都是相同的,简单来说Autoencoder=en

机器学习基础整理 (第八章) - 神经网络其他应用

文章目录 自动编码器 (Autoencoders)堆叠自编码器 (Stacked Autoencoder)欠完备/过完备自编码器 (Undercomplete/ Overcomplete autoencoders)自动编码器和主成分分析稀疏自动编码器 (Sparse Autoencoders)除噪自编码器 (Denosing Autoencoders)更多编码器 - 成本函数