首页 > TAG信息列表 > outputs

CAIL2021-阅读理解任务-模型模块

代码地址:https://github.com/china-ai-law-challenge/CAIL2021/blob/main/ydlj/baseline/model.py import torch from torch.nn import CrossEntropyLoss, BCELoss from torch import nn class MultiSpanQA(nn.Module): def __init__(self, pretrain_model): super

bp神经网络

import mathimport numpy as npimport pandas as pdfrom pandas import DataFrame,Series def sigmoid(x): #映射函数return 1/(1+math.exp(-x)) x1=[0.29,0.50,0.00,0.21,0.10,0.06,0.13,0.24,0.28]x2=[0.23,0.62,0.53,0.53,0.33,0.15,0.03,0.23,0.03]y=[0.14,0.64,0.28,0.33,0.1

FFMPEG中的两输入Filter实现(一)

开帖大吉!  利用FFMPEG工作已有一年多,许多学习文档散落在电脑各处,没有一个清晰明确的组织脉络;还有踩过又填平的各种坑,时间久了难免遗忘,再次遭遇时仍然要从头查起;而且事必躬亲也是毫无疑问的低效率,不利于后来同事的成长。因此有了开博的决定,希望记录下自己走过的脚印,见证自己的成

torch.RNN使用

inputs = torch.randn(3, 4, 16) rnn = torch.nn.RNN(input_size=16, hidden_size=6, num_layers=20) h0 = torch.randn(20, 4, 6) outputs, _ = rnn(inputs, h0) print(outputs)

【论文阅读】Exploring the Limitations of Behavior Cloning for Autonomous Driving

Column: January 16, 2022 11:11 PM Last edited time: January 21, 2022 12:23 PM Sensor/组织: 1 RGB Status: Finished Summary: carla leaderboard的前身,首次提出 IL BC的几点问题 及较为简单的解决办法 实验结果证明较为有效 Type: ICCV Year: 2019 引用量: 148 参考与前言

『NLP学习笔记』BERT命名实体识别(NER)实战

BERT命名实体识别(NER)实战! 文章目录 一. 数据集介绍二. 数据集读取&预处理三. 数据分词tokenizer四. 定义数据读取(继承Dataset)五. 定义模型&优化器&学习率六. 训练测试以及准确率七. 模型预测八. 整个代码八. 参考 BERT技术详细介绍: https://zhangkaifang.blog.csdn

autograd.grad 学习

转自:https://blog.csdn.net/waitingwinter/article/details/105774720 1.对输入变量求导 要用到输出值对输入变量(不是Weights和Biases)求导,可以用pytorch 中的autograd.grad() 函数实现。 autograd.grad(outputs, inputs, grad_outputs=None, retain_graph=None, create_graph=Fal

多并发-select

#!/usr/bin/env python # -*- coding:utf-8 -*- # Author:Vergil Fu import select,socket,queue server = socket.socket() server.bind(('localhost',9000)) server.listen(1000) server.setblocking(False) ###############################################设置

Java-se之I/O流

InputStream和OutputS他ream继承结构图  Reader和Writer继承结构图     

损失函数代码分析

2021SC@SDUSC #训练损失函数,用在训练时   train_criterion = SemiLoss() #交叉熵损失, 用在验证集和测试集, 是模型训完完成后的,使用交叉熵进行计算损失   criterion = nn.CrossEntropyLoss() 根据前几篇博客对损失函数的介绍,在半监督文本分类该项目的代码中,其主要公式:  使用

Yolo(3)(项目)Yolo v3 图像分类

目录 一、 读取文件 二、神经网络初始化  1、搭建神经网络 2、GPU加速 三、打开摄像头、按帧读取图像 四、向神经网络输入 五、获取神经网络输出 1、获取各层名称 2、获取输出层名称 3、获取输出层图像(内容) 六、框出物体 1、获取所有预测框情况  逐特征图输出 逐框输出 单预测

《Pytorch模型推理及多任务通用范式》第四节作业

1 课程学习 本节课主要对于大白AI课程: 《Pytorch模型推理及多任务通用范式》课程中的第四节课进行学习。 2 作业题目 题目描述 必做题: (1) 对 "./images/car.jpg" 做语义分割,提取出里面的车辆,模仿上课时,对“可视化推理结果”和“BGRA四通道图”进行保存。 (2) 自己找2张其他图,

基于Pytorch搭建潜水泵异常检测系统

基于视觉识别搭建潜水泵异常检测系统 [!] 源自于本人在Python与树莓派的选修课程报告,为原创内容 文章目录 基于视觉识别搭建潜水泵异常检测系统@[toc](文章目录)# 个人介绍# 设计目标# 模型设计1 数据集分析2 模型设计2 特征提取模块选定3 分类器选定 # 实践1 平台环境2

CNN卷积特征可视化

CNN卷积特征可视化 可视化准备工作: 我们将要进行的工作包括: 创建CNN特征提取器,本文使用PyTorch自带的resnet34 创建一个保存hook内容的对象 为每个卷积层创建hook 导入需要使用的库 对以下图片进行可视化 用到的python库 import numpy as np import torch import torchvisi

预训练之后分数较低排查错误

达观杯预训练之后分数较低 使用标准的tensorflow中的预训练过程进行比较第一波提升:加上一个dropout之后,并未明显地提升第二波提升:更换优化器由Adamw更换为Adam优化器,并未明显地提升发现问题:多加了一个pooler网络层最后发现,参数问题,maxlen过小,maxlen加大之后,一次epoch的训练

nlp中各中文预训练模型的输入和输出

Bert from transformers import ( BertTokenizer, BertConfig, BertModel, ) # clue/roberta_chinese_base bertTokenizer = BertTokenizer.from_pretrained('bert-base-chinese') bertModel = BertModel.from_pretrained('bert-base-chinese') s

【FFMPEG】错误 Invalid filterchain containing an unlabelled output pad

当使用avfilter_graph_parse_ptr接口,传入filters的参数为fps=fps=15;scale=w=960:h=540 ffmpeg就会输出错误:Invalid filterchain containing an unlabelled output pad: "fps=fps=15;scale=w=960:h=540" 说明多filter不能成功连接。 需要对各个filter的输入和输出指定. 因为默认

FLINK基础(116): DS侧输出 Side Outputs

When using side outputs, you first need to define an OutputTag that will be used to identify a side output stream: // this needs to be an anonymous inner class, so that we can analyze the type OutputTag<String> outputTag = new OutputTag<String&g

pytorch中如何将CPU上运行的数据模型转到GPU上运行(mnist举例)

首先贴一份在cpu上运行的代码 1 import torch 2 from torchvision import transforms 3 from torchvision import datasets 4 from torch.utils.data import DataLoader 5 import torch.nn.functional as F 6 import torch.optim as optim 7 8 batch_size = 64 9 tran

机器学习小白笔记

开始机器学习 机器学习的hello word–手写数字识别语言–python环境/平台–colab colab介绍 谷歌免费的GPU资源,但是要科学上网,你有谷歌账号就行,具体使用方法自行百度。 cd需要加%才能使用 其他的加!使用 例如: %cd drive/MyDrive/Colab\ Notebooks !pwd 开始吧 1.导入一些库 i

使用风格迁移让汉子变成套马的汉子

文章目录 灵感风格迁移1.简述2.重点3.代码demo3.1 使用tensorflow-hub快速实现图像风格迁移3.2 自己动手实现风格迁移 灵感 我最近迷上了图雅老师的套马杆,美中不足的就是她总是“躲汉子”,或许是因为这个汉子不够帅不能吸引到她?那今天我就动手做一个帅气的“套马的汉子

优达学城深度学习之三(上)——卷积神经网络

   学习如何用神经网络来解决分类问题。     开始都会说什么是机器学习?机器学习的应用是什么?用机器在海量数据中学习得到可以解决一类问题的办法,这就是我的理解。图像处理、文本处理、无人驾驶、等,深度学习最热门的应用就是无人驾驶。而深度学习的核心是神经网络。神经网

深度学习

python实现神经网络 import numpy import scipy.special class neuralNetwork: # initialise the neural network def __init__(self,inputnodes,hiddennodes,ouputnodes,learningrate): # set number of nodes in each input,hidden,outpit layer self.inodes = inputno

五个例子掌握theano.scan函数

一、theano的工作原理     在theano编程中,Graph是指导theano如何对变量进行操作的唯一途径,theano变量和theano Ops(操作)是Graph的两个基本构成元素。Graph只能由theano变量(包括shared变量)或常数组成。如图所示:        通常可以按如下步骤构造Graph:首先声明theano变量,th

tokenizer.encode和tokenizer.tokenize

一个是返回token,一个是返回其在字典中的id,如下             def bert_(): model_name = 'bert-base-chinese' MODEL_PATH = 'D:/xhzy-work/PURE/models/bert-base-chinese/' # a.通过词典导入分词器 tokenizer = BertTokenizer.from_pretrained(model_na