首页 > TAG信息列表 > MAE

GraphMAE:将MAE的方法应用到图中使图的生成式自监督学习超越了对比学习

前几天的文章中我们提到MAE在时间序列的应用,本篇文章介绍的论文已经将MAE的方法应用到图中,这是来自[KDD2022]的论文GraphMAE: Self-supervised Masked Graph Autoencoders 生成学习与对比学习 自监督学习从大量的无监督数据中挖掘出自己需要的的监督信息。与监督学习相比,它使用来

L1 loss 和L2 loss 和Smooth L1 loss 的区别

总结对比下L1L1 损失函数,L2L2 损失函数以及SmoothL1SmoothL1 损失函数的优缺点。 均方误差MSE (L2L2 Loss) 均方误差(Mean Square Error,MSE)是模型预测值f(x)f(x) 与真实样本值yy 之间差值*方的*均值,其公式如下   MSE=∑ni=1(fxi−yi)2nMSE=∑i=1n(fxi−yi)2n   其中,yiyi

深度学习之常用模型评估指标(二)—— 回归问题

深度学习入门小菜鸟,希望像做笔记记录自己学的东西,也希望能帮助到同样入门的人,更希望大佬们帮忙纠错啦~侵权立删。 目录 一、SSE(误差平方和) 二、MSE(均方误差) 三、RMSE(均方根误差) 四、MAE (平均绝对误差) 五、MAPE(平均绝对百分比误差) 六、R Squared (R方/可决系数) 一、SSE(误差平

程序员快看,马赛克,克星,真来了~

马赛克的克星,真的来了! 何恺明大神的新作,Kaiming 讲故事能力和实验能力,一如既往的强! MAE 的论文,21 年的 11 月份就发出来了。 但是一直没有开源,我也就一直没有写文,最近代码发出来了,可以一睹为快了! 我们先说下 MAE 的任务: 简单讲:将图片随机遮挡,然后复原。 并且遮挡的比例,非常

[云炬python3玩转机器学习]5-5 衡量回归算法的标准,MSE vs MAE

      05 衡量回归算法的标准,MSE vs MAE In [3]: import numpy as np import matplotlib.pyplot as plt from sklearn import datasets import datetime;print("Run by CYJ,",datetime.datetime.now()) Run by CYJ, 2022-01-20 12:53:42.123449 波士顿房产数据 In [4]:

马赛克,一生之敌,是时候说再见了【兄弟,借一部说话】

马赛克,小伙伴们的一生之敌,终于可以说再见了! 何恺明大神的新作,Kaiming 讲故事能力和实验能力,一如既往的强! MAE 的论文,21 年的 11 月份就发出来了。 但是一直没有开源,我也就一直没有写文,最近代码发出来了,可以一睹为快了! 我们先说下 MAE 的任务: 简单讲:将图片 随机遮挡 , 然后复

《Python深度学习》3.6预测房价:回归问题

回归问题,预测一个连续值而不是离散的标签 资料也别少,只有506个,分别为404个训练样本和102个测试样本。因为样本数少,书上讲了K折验证及相关代码,将训练样本分为若干部分,依次选取一块作为验证数据。由于数据中不同指标有着差异性的数值选取,需要做标准化。首先让所有数据减去平均

Masked Autoencoders

研究背景 我们之前介绍了 ViT(传送门),在 ViT 模型中我们也知道了他想要有超过 CNN 的效果的话就需要在超大数据集上进行预训练,在 ImageNet 1K 的效果其实并没有 ResNet 好。这样的话,如果我们需要重新对 ViT 进行训练的话,他的效率是不高的。于是这篇 MAE 在 ViT 的方法上进行了

【论文笔记】MAE: Masked Autoencoders Are Scalable Vision Learners

论文地址:http://arxiv.org/abs/2111.06377 项目地址:(非官方)https://github.com/pengzhiliang/MAE-pytorch 本文的主要观点是:掩码自编码器 (MAE) 是适用于计算机视觉的可扩展自监督学习器。 如果说ViT对应于NLP中的Tranformer,MAE实际上是对应于BERT。 MAE的核心思想是随机屏

带掩码的自编码器MAE详解和Pytorch代码实现

监督学习是训练机器学习模型的传统方法,它在训练时每一个观察到的数据都需要有标注好的标签。如果我们有一种训练机器学习模型的方法不需要收集标签,会怎么样?如果我们从收集的相同数据中提取标签呢?这种类型的学习算法被称为自监督学习。这种方法在自然语言处理中工作得很好。一个

课程九学习笔记: 自监督ViT算法:BeiT和MAE

课程九学习笔记: 自监督ViT算法:BeiT和MAE 1. SSL在NLP中的应用: 2. Bert 3. BeiT 4. MAE:Masked Autoencoders Are Scalable Vision Learners 5. 实践:Config配置和实验分开进行 自监督+ Transformer 1. SSL在NLP中的应用: Self-Supervised Learning (SSL):通过自己“监

分享 | 视觉无监督学习新范式:MAE

近日,FAIR的最新论文《Masked Autoencoders Are Scalable Vision Learners》 提出了一种更简单有效的用于ViT无监督训练的方法MAE,并在ImageNet-1K数据集上的top-1 acc达到新的SOTA:87.8%(无额外训练数据)。 自从ViT火了之后,一些研究者就开始尝试研究ViT的无监督学习,比如Mocov3用对

何恺明一作论文 MAE 已有人复现!Pytorch版

https://mp.weixin.qq.com/s/WSGh6hz8bXVcOyjmk0Ud5Q 何恺明一作论文 MAE 已有人复现!Pytorch版 AI派 2021-11-30 09:17 仅作学术分享,不代表本公众号立场,侵权联系删除 转载于:AI算法与图像处理 复现代码: https://github.com/pengzhiliang/MAE-pytorch 何恺明大佬新作一发出来,知乎

一周记录(MAE and TransMix)

过去一年,谷歌提出的VIT成为最火的模型,说明全部由Self-attention组成的模型会超越CNN。但最近学者又在反思,问题的本质是什么? 2021年5月,谷歌挖坑 MLP-Mixer ,说明保持VIT的图像序列化输入,使用全连接网络,就可以取得非常好的性能 2021年10月,ICLR2022的一个投稿论文《Patches are al

《Python深度学习》第三章-2(波士顿房价-回归问题)读书笔记

第三章-2(回归问题) 本次重点: boston_housing的回归模型(K折验证,loss=‘mse’,metrics=‘mae’) 3.1 预测房价:回归问题 回归问题 前面两个例子都是分类问题,其目标是预测输入数据点所对应的单一离散的标签。另一种常见的机器学习问题是回归问题,它预测一个连续值而不是离散的

Keras损失函数与Metrics学习总结

1. 损失函数在Keras中的用法 损失函数(或称目标函数)是模型compile()是需要指定的参数之一。 指定方法有两种: 直接传递损失函数名 model.compile(loss='mean_squared_error', optimizer='sgd') 与optimizers类似,直接传递符号函数。 该符号函数为每个数据点返回一个标量,有以下

ML:回归预测问题中评价指标(MSE/RMSE/MAE)简介、使用方法、代码实现、案例应用之详细攻略

ML:回归预测问题中评价指标(MSE/RMSE/MAE)简介、使用方法、代码实现、案例应用之详细攻略     目录 回归预测问题中评价指标简介 RMSE 标准差SD MSE函数 (1)、MSE函数

线性回归的评估(MSE、RMSE、MAE、R Square)

目录如何评估?MSERMSERMSE & MAER SquareR 方特性示例:预测boston 房价数据并评估读取、查看数据特征先做一个简单线性回归去除异常值训练数据预测并评估使用 sklearn.metrics 中的方法进行评估 如何评估? 简单线性回归 的 目标是找到 a 和 b 使得 $ \sum^m_{i=1} (y_{train}^{(i)}

深度学习——学习笔记(4)神经网络基础 回归

# 加载波士顿房价数据 from keras.datasets import boston_housing (train_data,train_targets),(test_data,test_targets) = boston_housing.load_data() Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/boston_housing.npz 57344/57026

深度学习_损失函数(MSE、MAE、SmoothL1_loss...)

@TOC 总结对比MSE损失函数,MAE损失函数以及Smooth L1_loss损失函数的优缺点 1、常见的MSE、MAE损失函数 1.1、均方误差MSE 均方误差(Mean Square Error,MSE)是回归损失函数中最常用的误差,它是预测值f(x)与目标值y之间差值平方和的均值,其公式如下所示: 下图是均方误差值的曲线分

机器学习常用5个回归损失函数

“损失函数”是机器学习优化中至关重要的一部分。L1、L2损失函数相信大多数人都早已不陌生。那你了解Huber损失、Log-Cosh损失、以及常用于计算预测区间的分位数损失函数么?这些可都是机器学习大牛最常用的回归损失函数哦! 机器学习中所有的算法都需要最大化或最小化一个函数,这个函

机器学习常用损失函数

机器学习常用损失函数 转载自:机器学习常用损失函数小结 - 王桂波的文章 - 知乎 https://zhuanlan.zhihu.com/p/776861188 1.Loss Function、Cost Function 和 Objective Function 的区别和联系 损失函数 Loss Function 通常是针对单个训练样本而言,给定一个模型输出 和一个真实

数据挖掘与机器学习--损失函数

损失函数是用来估量模型的预测值f(x)与真实值不y一致的程度。我们的目的就是最小化损失函数,让f(x)与y尽量接近。 通常可以使用梯度下降寻找函数最小值 损失函数大致可以分成两类:回归和分类 回归类型损失函数 均方误差(Mean Square Error,MSE) 模型预测值与样本真实值之间距离平方的

预测房价:人工智能回归问题

​我们之前提出了三个经典的问题,他们分别是: 二分类问题(电影评论好坏倾向性判断) 多分类问题(将新闻按照主题分类) 回归问题(根据房地产数据估算房地产价格) 我们解决了前两个问题,今天我们解决第三个问题,回归问题。 不管是二分类问题还是多分类问题,归结起来都是分类问题,而回归问题不一

预测房价:人工智能回归问题

​我们之前提出了三个经典的问题,他们分别是: 二分类问题(电影评论好坏倾向性判断) 多分类问题(将新闻按照主题分类) 回归问题(根据房地产数据估算房地产价格) 我们解决了前两个问题,今天我们解决第三个问题,回归问题。 不管是二分类问题还是多分类问题,归结起来都是分类问题,而回归问题不一