首页 > TAG信息列表 > pred

AdaBoost:自适应提升算法的原理及其实现

AdaBoost:通过改变训练样本权重来学习多个弱分类器并线性组合成强分类器的Boosting算法。 Boosting方法要解答的两个关键问题:一是在训练过程中如何改变训练样本的权重或者概率分布,二是如何将多个弱分类器组合成一个强分类器。   AdaBoost的做法:一是提高前一轮被弱分类器分类错误

反归一化

问题描述:归一化后使用模型进行预测,将预测的结果反归一化为初始的数据规模,预测值与真实值进行画图比较。 1、将特征和标注进行拆分,分别进行归一化 2、特征的归一化 1 from sklearn.preprocessing import MinMaxScaler # 导包 2 data.name = data.columns # 获取列名 3 f

69用于预训练BERT的数据集

点击查看代码 import os import random import torch from d2l import torch as d2l #@save d2l.DATA_HUB['wikitext-2'] = ( 'https://s3.amazonaws.com/research.metamind.io/wikitext/' 'wikitext-2-v1.zip', '3c914d17d80b1459be87

NLG常用metric整理

概览 BLEU:基于比较词/短语的重叠比例,关注precision Rouge:基于比较词/短语的重叠比例,关注recall Meteor:基于比较词/短语的重叠比例,关注f1 Distinct: Perplexity: BLEU BLEU (其全称为Bilingual Evaluation Understudy), 其意思是双语评估替补。所谓Understudy (替补),意思是代替人进

AI+医疗:使用神经网络进行医学影像识别分析 ⛵

java基础----AQS---acquireQueued详解

1. 假设有A、B、C三个线程同时执行,A线程获取到了锁,并且一直持有中。2. B线程执行,获取锁失败会被加到等待队列中,因为此时队列为空,则建立空节点head,同时B线程添加节点到队列中,作为第一个等待的节点,所以此时队列中有两个节点,头节点和B节点,他们的等待状态都是0。3. B在acquireQueued方

机器学习—朴素贝叶斯

朴素贝叶斯算法(Naive Bayesian algorithm) 是应用最为广泛的分类算法之一。 朴素贝叶斯方法是在贝叶斯算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。也就是说没有哪个属性变量对于决策结果来说占有着较大的比重,也没有哪个属性变量对于决策结果占有着较小

5-6 评估指标metrics——eat_tensorflow2_in_30_days

5-6 评估指标metrics 损失函数除了作为模型训练时候的优化目标,也能够作为模型好坏的一种评价指标。但通常人们还会从其它角度评估模型的好坏。 这就是评估指标。通常损失函数都可以作为评估指标,如MAE, MSE, CategoricalCrossentropy等也是常用的评估指标。 但评估指标不一定可以

5-5损失函数losses——eat_tensorflow2_in_30_days

5-5损失函数losses 一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization) 对于keras模型,目标函数中的正则化项一般在各层中指定,例如使用Dense的 kernel_regularizer 和 bias_regularizer等参数指定权重使用l1或者l2正则化项,此外还可以用kerne

AQS的底层原理探究

java.utils.concurrent 简称 JUC,是jdk跟并发有关的包,AQS在其下的 locks 包下,全称为 AbstractQueuedSynchronizer,是一个抽象类。之所以有名是因为它是很多并发类的基类,最常见的 ReentrantLock 就是基于 AQS。也是因为AQS的存在,我们可以很方便的写出一个自己的并发工具类,只需要自定

pytorch API

pytorch--多标签分类损失函数 import torch import numpy as np pred = np.array([[-0.4089, -1.2471, 0.5907], [-0.4897, -0.8267, -0.7349], [0.5241, -0.1246, -0.4751]]) label = np.array([[0, 1, 1], [0, 0, 1],

神经网络与深度学习(邱锡鹏)编程练习 2 题目解析

线性回归的参数优化: 先完成最小二乘法的优化 (参考书中第二章 2.3中的公式) 再完成梯度下降法的优化 (参考书中第二章 2.3中的公式) 不同的基函数实现: 多项式基函数 高斯基函数 函数: 载入数据:load_data(filename) 基函数: identity_basis(x) multinomial_basis(x, feature_nu

13

1 package mt; import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException; public class BaseDao { public Connection getConnection() { Connection co

第十二周

1.实现 删除 回复邮件2.实现阅读邮件功能:在main.jsp中点击任意邮件的标题,进入到detail.jsp显示邮件详情,包括发件人,主题,内容,时间。同时需要把邮件状态修改为已读。 package com.nn.Dao; import java.sql.Connection; import java.sql.PreparedStatement; import java.sql.ResultS

十一周

    1.建库,建表2个用户表(id,用户名,密码)邮件表(id,发件人,收件人,标题,内容,发送时间,状态) 2.建model层entity,dao包 3.登陆,注册,登陆后显示全部邮件 package com.gd.dao; import java.sql.Connection; import java.sql.DriverManager; import java.sql.PreparedStatement; import jav

pyspark 常用rdd函数例子

## mapPartions def model_pred(partitionData): updatedData = [] for row in partitionData: pred_value = model.value.predict([row[2:]])[0] pred_value = float(round(pred_value,4)) updatedData.append([row[0],row[1],pred_value])

【项目实战】pytorch实现逻辑斯蒂回归

视频指导:https://www.bilibili.com/video/BV1Y7411d7Ys?p=6 一些数据集 在pytorch框架下,里面面有配套的数据集,pytorch里面有一个torchversion的包,他可以提供相应的,比如MNIST这种很基础的数据集,但是安装的时候这些数据集不会包含在包里面,所以需要下载,具体代码以及解释如下: import t

机器学习中的评价标准

from sklearn.metrics import classification_report y_true = [0, 1, 2, 2, 2] y_pred = [0, 0, 2, 2, 1] target_names = ['class 0', 'class 1', 'class 2'] print(classification_report(y_true, y_pred, target_names=target_names)) 输出:

tf2 自定義loss加載報錯

問題描述 ValueError: Unknown loss function: bes_loss 問題場景 訓練 margin = 0.6 theta = lambda t : (K.sign(t) + 1.) / 2 def bes_loss(y_true, y_pred): return - (1 - theta(y_true - margin) * theta(y_pred - margin) - theta(1 - margin - y_true)

SimCSE的loss实现-tensorflow2

对比学习的核心就是loss的编写,记录下loss的tensorflow实现 def unsupervise_loss(y_pred, alpha=0.05): idxs = tf.range(y_pred.shape[0]) y_true = idxs + 1 - idxs % 2 * 2 y_pred = tf.math.l2_normalize(y_pred, dim = 1) similarities = tf.matmul(y_pred,

银行反控模型

import pandas as pdimport numpy as npy_true = np.array([0, 0, 0, 1, 1, 1, 1, 1, 1, 1])y_pred = np.array([0, 0, 1, 1, 1, 1, 1, 0, 0, 0])# 计算模型得到的正确结果true_positives = ((y_pred == y_true) & (y_pred == 1)).sum()prin

Pytorch nn.BCEWithLogitsLoss() 的简单理解与用法

这个东西,本质上和nn.BCELoss()没有区别,只是在BCELoss上加了个logits函数(也就是sigmoid函数),例子如下: import torch import torch.nn as nn label = torch.Tensor([1, 1, 0]) pred = torch.Tensor([3, 2, 1]) pred_sig = torch.sigmoid(pred) loss = nn.BCELoss() print(loss(pr

深度学习准确率(acc)计算方法

本文简单介绍模型训练时候,使用准确率求解过程,不涉及精确率和召回率计算, 本文给出简要计算方法与代码。   计算方法: 使用top1计算为例(以下以2个batch,3个num_classes举列): 网络预测结果形式:pred=[b,num_classes] ,如pred=[[0.6,0.8,0.9],[0.7,0.4,0.3]] 真实标签形式:label=[b],如bat

LSMT 实战-python

长短期记忆网络(LSTM,Long Short-Term Memory) 使用kears 搭建一个LSTM预测模型,使用2022年美国大学生数学建模大赛中C题中处理后的BTC比特币的数据进行数据训练和预测。 这篇博客包含两个预测,一种是使用前N天的数据预测后一天的数据,一种使用前N天的数据预测后N天的数据 第一种:使用前

LSMT

长短期记忆网络(LSTM,Long Short-Term Memory) 使用kears 搭建一个LSTM预测模型,使用2022年美国大学生数学建模大赛中C题中处理后的BTC比特币的数据进行数据训练和预测。 这篇博客包含两个预测,一种是使用前N天的数据预测后一天的数据,使用前N天的数据预测后N天的数据 使用前五十个数据