首页 > TAG信息列表 > estimator
AdaBoost:自适应提升算法的原理及其实现
AdaBoost:通过改变训练样本权重来学习多个弱分类器并线性组合成强分类器的Boosting算法。 Boosting方法要解答的两个关键问题:一是在训练过程中如何改变训练样本的权重或者概率分布,二是如何将多个弱分类器组合成一个强分类器。 AdaBoost的做法:一是提高前一轮被弱分类器分类错误在jupyter中导入tensorflow 引起内核挂掉/h5py版本不匹配问题
安装过后仍然超时出错,原因是网络太慢,重新执行该命令,出现以下错误: 如红字显示,tensorflow与h5py版本不匹配,按其中要求安装相应版本即可 安装完成,又出现类似问题,出问题的地方分别是numpy , tensorflow-estimator,scipy 按照相应类似命令进行安装对应所需环境调优前后knn鸢尾花
def knn_iris(): # 获取数据 iris = load_iris() # 划分数据集 x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22) # 特征工程:标准化 transfer = StandardScaler() x_train = transfer.fit_transformMeLU Meta-Learned User Preference Estimator for Cold-Start Recommendation阅读笔记
动机 本文是2019年KDD上的一篇论文。现有的推荐系统探索新用户偏好时,通常是向用户提供一系列物品作为候选池,然后根据用户在候选池中选择交互的物品提出推荐建议。这样的方法有一些局限性:1.对只有少量交互物品的用户提供的推荐较差。2.候选池中的物品可能并不能真正体现出用户的偏什么是机器学习的分类算法?【K-近邻算法(KNN)、交叉验证、朴素贝叶斯算法、决策树、随机森林】
1、K-近邻算法(KNN) 1.1 定义 (KNN,K-NearestNeighbor) 如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。 1.2 距离公式 两个样本的距离可以通过如下公式计算,又叫欧式距离。 简单理解这个算法: 这个算法是用来给特征scikit-learn 的设计
scikit-learn 的设计 1 核心API Core API1.1 Estimators1.2 Predictors1.3 Transformers 2 高级API Advanced API2.1 Meta-estimators2.2 Pipelines and feature unions3.3 Model selection 1 核心API Core API 所有 scikit-learn 对象都有三个基本的接口:Estimators, Pre【PCL自学:Feature8】RoPs(旋转投影统计)特征识别物体简介和使用 (持续更新)
一、RoPs(旋转投影统计)特征原理介绍 在文章中,我们继续学习如何使用pcl:: ropsestimate类来提取点的特征。在这类中实现的特征提取方法是由Yulan Guo, Ferdous Sohel, Mohammed Bennamoun, Min Lu和Jianwei wane在他们的文章 “Rotational Projection Statistics for 3Dk-prototypes聚类算法
1 k-prototypes聚类 https://github.com/nicodv/kmodes.git 1 k-prototypes算法 K-prototype是K-means与K-modes的一种集合形式,适用于数值类型与字符类型集合的混合型数据。 k-prototypes算法在聚类的过程中,是将数据的数值型变量和类别型变量拆开,分开计算样本间变量的距离,再将两者K近邻算法04---案例:预测Facebook签到位置
注: 这部分看博客注释与运行截图就差不多能理解啦,把代码复制到自己的编译器中分别运行,认真体会每一步。 一、代码截图和运行截图 二、全部代码 import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardS随机森林-sklearn
随机森林:就是字面意思,在一个地方,有多个树一起组成的森林。也就是由多棵决策树来组成对于问题的判断。 树林的形成: 对于每一个树木,他的训练集和特征要不一样才可以发挥数的特性,否则就是将一颗决策树多次复制。因此,对于训练集的选择,使用bootstrap的抽样方法,就是不放回随机抽样。特机器学习-朴素贝叶斯算法
联合概率:包括多个条件,且所有的条件都成立的概率:P(a, b) 条件概率:就是事件A在另外一个事件B已经发生条件下的发生概率 P(a | b) 相互独立:如果P(A , B) = P(A) * P(B)那么称事件A和事件B相互独立 贝叶斯公式: P(C | W) = P(W | C) * P(C) / P(W) 下面拿一个实例来举例子:(A,B,C分别sklearn 估计器(estimator)接口
sklearn 估计器(estimator)接口的简单介绍 Scikit-learn 努力在为所有方法建立统一的接口。给定名为model的 scikit-learn 估计器对象,可以使用以下方法(并非每个模型都有): 1. 适用于所有估计器 model.fit():拟合训练数据。对于监督学习应用,它接受两个参数:数据X和标签y(例如model.fit(sklearn——转换器(Transformer)与预估器(estimator)
sklearn——转换器(Transformer)与预估器(estimator) 文章目录 sklearn——转换器(Transformer)与预估器(estimator)转换器 Transformerfit 与 fit_transform 与 transform值得注意的是 扒拉了下源码(可以不看这部分,看上面结论就够了) 预估器 Estimator 在我之前接触的sklearn中,有python机器学习-KNN算法
K-近邻算法API sklearn.neighbors.KNeighborsClassifier(n_neighbors=5,algorithm='auto') n_neighbors:int,可选(默认= 5),k_neighbors查询默认使用的邻居数 algorithm:{‘auto’,‘ball_tree’,‘kd_tree’,‘brute’},可选用于计算最近邻居的算法:‘ball_tree’将会使用 BallTree,‘kd_tpython机器学习-鸢尾花决策树
决策树API class sklearn.tree.DecisionTreeClassifier(criterion=’gini’, max_depth=None,random_state=None) 决策树分类器 criterion:默认是’gini’系数,也可以选择信息增益的熵’entropy’ max_depth:树的深度大小 random_state:随机数种子 其中会有些超参数:max_depth:2021-09-21KNN——鸢尾花
from sklearn.datasets import load_iris from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.neighbors import KNeighborsClassifier # 1.获取数据集 iris = load_iris() # 2.数据基本处理 # 2.1 数scikit基础与机器学习入门(3)机器学习任务的一般流程——以鸢尾花分类为例
机器学习任务的一般流程 本文以鸢尾花数据集为例,对机器学习人物的一般步骤进行了梳理 下面是baseline 数据的获取/导入 首先导入有关的库 import numpy as np import matplotlib.pyplot as plt import pandas as pd from sklearn import datasets 这里导入iris库 iris = datasetk近邻2-api初步使用
1 Scikit-learn工具介绍 目前稳定版本0.19.1 1.1 安装 pip3 install scikit-learn==0.19.1 查看是否安装成功 import sklearn 注:安装scikit-learn需要Numpy, Scipy等库 1.2 Scikit-learn包含的内容 分类、聚类、回归 特征工程 模型选择、调优 2 K-近邻算法API sklearn.ne【语音增强】Coherence-based语音反混响【含Matlab源码 1026期】
一、简介 对语音信号进行基于相干性的去混响 二、源代码 %DEMO_CDR_DEREVERB % % Demonstration of CDR-based noise and reverberation suppression. %演示CDR-based噪声和混响抑制 % To use this with your own recordings: % 1. Change wave filename % 2. Adapt micropho【机器学习】Scikit-learn介绍
一、Scikit-learn简介 Scikit-learn是一个支持有监督和无监督学习的开源机器学习库。它还为模型拟合、数据预处理、模型选择和评估以及许多其他实用程序提供了各种工具。 二、 拟合和预测:估算器基础 Fitting and predicting: estimator basics (一)estimator estimators:sklearn人工智能基础(十六)模型的保存与加载
模型的保存与加载 from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge, RidgeCV from sklearn.m《机器学习Python实现_10_13_集成学习_xgboost_分类的简单实现》
一.简介 xgboost分类分两种情况,二分类和多分类: (1) 二分类的思路与logistic回归一样,先对线性函数套一个sigmoid函数,然后再求交叉熵作为损失函数,所以只需要一组回归树并可实现; (2)而多分类的实现,思路同gbm_classifier一样,即同时训练多组回归树,每一组代表一个class,然后对其进行softmax操机器学习之回归算法(3.0)
线性回归(正规方程求解,损失函数形式为最小二乘法) 案例: from sklearn.datasets import load_boston from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.linear_model import LinearRegression from sklearn.m机器学习之分类算法-KNN(2.1)
KNN核心思想: 你的“邻居”来推断出你的类别 计算距离: 欧氏距离 曼哈顿距离 绝对值距离 明可夫斯基距离 如果取的最近的电影数量不一样?会是什么结果? k 值取得过小,容易受到异常点的影响《机器学习Python实现_10_08_集成学习_bagging_randomforest实现》
一.简介 为了让学习器越发的不同,randomforest的思路是在bagging的基础上再做一次特征的随机抽样,大致流程如下: 二.RandomForest:分类实现 import os os.chdir('../') from ml_models import utils from ml_models.tree import CARTClassifier import copy import numpy as np """