首页 > TAG信息列表 > 样本
slam14(2) v1 概率论知识 期望 方差 协方差
https://blog.csdn.net/qq_39521554/article/details/79633207 总体方差(variance):总体中变量离其平均值距离的平均。一组数据 样本方差(variance):样本中变量离其平均值距离的平均。一组数据 总结一下: 分母是m-1的情况下,估计值是总体Baggging 和Boosting区别
from: cnblogs.com/earendil/p/8872001.html Baggging 和Boosting都是模型融合的方法,可以将弱分类器融合之后形成一个强分类器,而且融合之后的效果会比最好的弱分类器更好。 Bagging: 先介绍Bagging方法: Bagging即套袋法,其算法过程如下: 从原始样本集中抽取训练集。每轮从原始逻辑回归与梯度下降法全部详细推导
from: https://www.cnblogs.com/onemorepoint/p/9321199.html 逻辑斯谛回归 感知机的一个最大缺点是:在样本不是完全线性可分的情况下,它永远不会收敛。分类算中的另一个简单高效的方法:logistics regression(分类模型) 很多情况下,我们会将逻辑回归的输出映射到二元分类问题的解决方案《Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Ne
论文题目《Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks》 论文作者:Y ushi Chen, Member , IEEE, Hanlu Jiang, Chunyang Li, Xiuping Jia, Senior Member , IEEE, and Pedram Ghamisi, Member , IEEE 论文发混淆矩阵简介
混淆矩阵简介 在本文中,我将解释什么是混淆矩阵以及如何使用它来检查机器学习分类算法的性能。如果您想了解有关混淆矩阵的更多信息,我将在本文的最后展示一些参考资料。 什么是混淆矩阵? 混淆矩阵是一个有价值的表格,用于通过将预测结果与测试数据集的实际结果进行比较来检查机器学习分钟级在线深度学习在手淘信息流排序模型中的探索与实践
作者:淘宝技术链接:分钟级在线深度学习在手淘信息流排序模型中的探索与实践这篇文章实践性很好,值得学习~ 前些年流行的FTRL等在线学习算法在深度学习中已不太适用,为此信息流推荐算法团队从2019年开始探索在线学习的下一式——在线深度学习(Online Deep Learning, ODL),在首页商品信息流富数-AnonymFL
本文学习文章“2022 WAIC|「全匿踪联邦学习」AnonymFL正式发布:破解用户ID暴露难题,实现真正合规可信的隐私计算”,记录笔记。 引言 2022年08月26日,富数科技宣布实现了“全匿踪联邦学习”,突破了无需安全求交、不泄露交集ID、在全匿名数据集下进行联邦学习的技术难题。 2022年09月01【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning
【CVPR2022】BatchFormer: Learning to Explore Sample Relationships for Robust Representation Learning 论文:https://arxiv.org/pdf/2203.01522.pdf 代码:https://github.com/zhihou7/BatchFormer BatchFormer的 V1 版本 这是一个来自 悉尼大学 和 京东 的工作。为了解决当前小样本利器3. 半监督最小熵正则 MinEnt & PseudoLabel代码实现
在前两章中我们已经聊过对抗学习FGM,一致性正则Temporal等方案,主要通过约束模型对细微的样本扰动给出一致性的预测,推动决策边界更加平滑。这一章我们主要针对低密度分离假设,聊聊如何使用未标注数据来推动决策边界向低密度区移动,相关代码实现详见ClassicSolution/enhancement 半监督自我监督学习
自我监督学习 自监督学习 (SSL) 正在迅速缩小与监督方法的差距。最近,拓宽自我监督学习视野的主要参与者之一 Facebook AI Research (FAIR) 引入了 SEER。 SEER 是一个 1.3B 参数的自监督模型,在 1B Instagram 图片上预训练,在 ImageNet 上达到 84.2% 的 top-1 准确率,轻松超越所有现虚警率、漏警率、准确率、精确率、召回率
在 5G NR 的 PUCCH 仿真中遇到了有关虚警率和漏警率的概念。在此记录一下。文章内容来自于:虚警率、漏警率 一、相关概念 真实值(actual value)、预测值(predicted value) actual value 指真实记录的已发生的测量结果值;predicted value 指对未发生的预测值。 真(True)、假(False) Tru利用加密协议进行挖矿的样本分析
https://app.any.run/tasks/a11a56a6-3fa6-40f4-995d-8fbde7e91125/# 命令行: attrib.exe_-a savana1998@bk.ru -o stratum+ssl://xmr.pool.minergate.com:45700:savana1998@bk.ru -u savana1998@bk.ru -p x -t 2_4_0_4 pcap下载后可以看到:04. Prometheus - 指标处理(PromQL)
指标(Metrics) Prometheus 会将所有采集到的样本数据以时间序列(time-series)的方式保存在内存数据库中,并且定时保存到硬盘上。 时间序列按照时间戳和值的序列顺序存放,每条时间序列通过 指标名称(metrics name)和一组 标签集(labelset)命名。 在时间序列中的每一个点称为一个 样本(sample),NLP学习笔记-支持向量机
支持向量机(Support Vector Machine, SVM)算法也是一种处理二分类问题的线性分类器,是一种监督学习的方法,是用来解决样本求解的最大边距超平面的问题,是边界决策中常见的分类方法。 最大间隔 SVM听上去高深且难以理解,不妨举个来了解SVM的思想。小学时,同桌之间经常会用振动数据读取
train_data.shape[0] #训练集样本数量 train_data.shape[1] - 1 #每个样本的采样点数量类似于img.sahpe[0]就是图像的高度 在这里的test_data 这个矩阵是2040*401 每一行是一个振动点的数据 2040列就是2040个test的数据数据处理的常见问题
SPSS作为一款常用的数据分析工具,以其分析功能强大而操作简单获得大家的青睐。但是实际的数据分析过程,往往和理想状态差得很远,总会时不时有一些怪怪的现象,或者自己无法解决的问题。以下是罗列出的用户在使用SPSS或者SPSSAU操作时常见的问题以及对应的解决方法,希望可以帮助大家解决抽样分布定理——统计学(七)
抽样分布定理可以说是数理统计的基本定理了,因为它奠定了后面参数估计和假设检验的基础,所以掌握好这个定理以及它的证明十分有必要。这里介绍抽样分布定理以外,以及阐述它在后续内容中的重要作用。 一、抽样分布定理 *前提:都是单个总体的样本,样本的数学期望和方差都易求,以此来求总体mean-shift算法详解(转)
转自:mean-shift算法详解 MeanShift最初由Fukunaga和Hostetler在1975年提出,但是一直到2000左右这篇PAMI的论文Mean Shift: A Robust Approach Toward Feature Space Analysis,将它的原理和收敛性等重新整理阐述,并应用于计算机视觉和图像处理领域之后,才逐渐为人熟知。在了解mean-s标准误
标准误:即样本均数的标准差。 标准误 = 标准差 / N的根号。 是描述均数抽样分布的离散程度及衡量均数抽样误差大小的尺度,反映的是样本均数之间的变异。标准误不是标准差,是多个样本平均数的标准差。标准误用来衡量抽样误差。 标准误越小,表明样本统计量与总体参数的值越接近,样本对分类器性能评估之PR曲线与ROC曲线
precision & recall 与 PR曲线 Precision中文名查准率,精确率:表示预测为正样本的样本集中真正正样本的比例 Recall中文名查全率,召回率:表示真正为正样本的样本集中被预测为正样本的比例 \[P=TP/(TP+FP) \]\[R=TP/(TP+FN) \]其中TP,TN,FP,FN的T/F代表预测是否正确(True/False),P/N代表预测DIMP:Learning Discriminative Model Prediction for Tracking 学习判别模型预测的跟踪
原文链接 论文地址:https://arxiv.org/pdf/1904.07220v1.pdf 代码:pytracking 中有 dimp 的代码 摘要 与大多数其他视觉问题相比,跟踪需要在推理阶段在线学习鲁棒的特定于目标的外观模型。为了能够进行端到端的培训,目标模型的在线学习因此需要自身嵌入到跟踪体系结构中。由于这些困难机器学习:聚类
1、聚类任务 聚类是一种经典的无监督学习方法,无监督学习的目标是通过对无标记训练样本的学习,发掘和揭示数据集本身潜在的结构与规律,即不依赖于训练数据集的类标记信息。 聚类则是试图将数据集的样本划分为若干个互不相交的类簇,从而每个簇对应一个潜在的类别。 2、性能度量 性能度参数日志
batch_size = 200 #批次大小n_steps = 15 #步长数n_input = 4num_units = 64iteration = 31epoch = 30000iterations = 930000 (1)batchsize:批大小。在深度学习中,一般采用 SGD 训练,即每次训练在训练集中取batchsize 个样本训练;(2)iteration:1 个 iteration 等于使用 batchsize 个样本训【Python学习】基于 KNN 模型的葡萄酒种类预测
算法原理 K最近邻(KNN,k-NearestNeighbor)分类算法是数据挖掘分类技术中最简单的方法之一。 给定测试样本,基于某种距离度量找出训练集中与其最靠近的K个训练样本,然后基于这 K个"邻居"的信息来进行预测。 KNN 算法的核心思想是如果一个样本在特征空间中的 K 个最相邻的样本中的大多机器学习:集成学习
1、个体与集成 集成学习(ensemble learning):构建并结合多个学习器来完成学习任务 集成学习可以只包含同种类型的个体学习器,如全是决策树、神经网络,称为“同质”(homogeneous);也可以包含不同类型的个体学习器,如同时包含决策树、神经网络,称为异质的(heterogeneous) 集成学习对学习器