首页 > TAG信息列表 > tensor

转置卷积

一. 基本操作 不同于一般的卷积做的是多个元素->1个元素,转置卷积是从1个元素到多个元素 二. 填充、步幅和多通道 1. 填充 常规卷积中padding是在输入的外圈添加元素,转置卷积中的padding则是在输出中删除外圈的元素 x = torch.tensor([[0.0, 1.0], [2.0, 3.0]]) x = x.reshape(1

Pytorch torch.nn.functional.softmax: What dimension to use?

torch.nn.functional.softmax https://pytorch.org/docs/stable/generated/torch.nn.functional.softmax.html?highlight=softmax#torch.nn.functional.softmax https://stackoverflow.com/questions/49036993/pytorch-softmax-what-dimension-to-use Pytorch softmax: What d

目标检测-锚框

一.锚框个数计算以及锚框高宽计算 二.代码实现 def multibox_prior(data, sizes, ratios): """生成以每个像素为中心具有不同形状的锚框""" in_height, in_width = data.shape[-2:] device, num_sizes, num_ratios = data.device, len(sizes), len(ratios) boxes

PyTorch中的CUDA操作

  CUDA(Compute Unified Device Architecture)是NVIDIA推出的异构计算平台,PyTorch中有专门的模块torch.cuda来设置和运行CUDA相关操作。本地安装环境为Windows10,Python3.7.8和CUDA 11.6,安装PyTorch最新稳定版本1.12.1如下: pip3 install torch torchvision torchaudio --extra-in

Six---pytorch学习---索引与切片

pytorch学习(3) 索引与切片 普通索引 冒号索引(切片) index_select 选择特定索引 masked_select 选择符合条件的索引 take 索引 普通索引 index(有负索引) import torch a = torch.Tensor(2,3,32,32) print(a.shape) print(a[0].shape) print(a[0][0].shape) print(a[0][0][0][0]

Nine---pytorch学习---拼接与拆分/运算统计

## pytorch学习(6) ### 拼接与拆分 - cat- stack- split- chunk #### cat() - 连接给定维度中给定的张量序列- 所有张量必须具有相同的形状(拼接维度除外)或为空- torch.cat() 可以看作是 torch.split() 和 torch.chunk() 的反运算- torch.cat(inputs,dim=) ```python#正确的案例

PyTorch实践模型训练(Torchvision)

模型训练的开发过程可以看作是一套完整的生产流程,这些环节包括: 数据读取、网络设计、优化方法与损失函数的选择以及一些辅助的工具等,TorchVision是一个和PyTorch配合使用的Python包,包含很多图像处理工具 PyTorch中的数据读取 模型训练开始的第一步就是数据读取,PyTorch提供了十分

torch中乘法整理,*&torch.mul()&torch.mv()&torch.mm()&torch.dot()&@&torch.mutmal()

*位置乘 符号*在pytorch中是按位置相乘,存在广播机制。 例子: vec1 = torch.arange(4) vec2 = torch.tensor([4,3,2,1]) mat1 = torch.arange(12).reshape(4,3) mat2 = torch.arange(12).reshape(3,4) print(vec1 * vec2) print(mat2 * vec1) print(mat1 * mat1) Output: tensor([

pytorch 数据类型 和 numpy 数据 相互转化

tensor to numpy tensor数据在cpu上: 如果tensor数据在cpu上,直接使用.numpy()就可以转化。 例子: 注意:torch 和 numpy 转化后 指向地址相同 如果修改原始数据,那么转换后的数据也会修改,例子: tensor数据在gpu上: 如果tensor数据在gpu上,那么需要将tensor数据先转移到cpu上面,然后在进

MindSpore报错 Select GPU kernel op * fail! Incompatible data type

1 报错描述 1.1 系统环境 Hardware Environment(Ascend/GPU/CPU): GPUSoftware Environment:– MindSpore version (source or binary): 1.5.2– Python version (e.g., Python 3.7.5): 3.7.6– OS platform and distribution (e.g., Linux Ubuntu 16.04): Ubuntu 4.15.0-74-gener

MindSpore报错 For ‘MirrorPad‘, paddings must be a Tensor with *

1 报错描述 1.1 系统环境 Hardware Environment(Ascend/GPU/CPU): CPUSoftware Environment:– MindSpore version (source or binary): 1.8.0– Python version (e.g., Python 3.7.5): 3.7.6– OS platform and distribution (e.g., Linux Ubuntu 16.04): Ubuntu 4.15.0-74-gener

Pytorch卷积神经网络对MNIST数据集的手写数字识别

这个程序由两个文件组成,一个训练脚本,一个测试脚本。安装好相应依赖环境之后即可进行训练,MNIST数据集使用torchvision.datasets.mnist包自动下载。 mnistTrain.py # -*- coding: utf-8 -*- import torch from torchvision.datasets.mnist import MNIST from torchvision.transforms

花式索引原理浅析

假设我有如下三维tensor: matrix = torch.tensor([ [ [1,2,3], [4,5,6] ], [ [2,3,4], [5,6,7] ] ]) 索引方法为: matrix[ [ [0], [1] ], [ [0,1], [1,1] ], [ [2

[Pytorch]Tensor

Tensors 张量 张量是一种特殊的数据结构,与数组和矩阵非常相似。 在 PyTorch 中,我们使用张量来编码模型的输入和输出,以及模型的参数。 张量类似于 NumPy 的 ndarray,张量可以在 GPU 或其他支持硬件加速器上运行。 事实上,张量和 NumPy 数组通常可以共享相同的底层内存,从而无需复

Tesla T4 与 RTX3090Ti 性能对比;深度学习方向效率对比;

部分数值由于厂家不同,略有出入   Nvidia Tesla T4 Nvidia RTX 3090Ti 该参数的作用 架构   Turing架构 Ampere架构    VERSUS网评分 52分 94分 综合评分   Tensor核心数 320个Tensor Core 656个Tensor Core 张量核支持混合精度计算,动态调整计算以加快吞吐量,同时

tensorflow.js基本使用 线性回归(一)

根据身高推测体重 const $ = require('jquery');const tf = require('@tensorflow/tfjs');const tfvis = require('@tensorflow/tfjs-vis'); /* 根据身高推测体重 */ //把数据处理成符合模型要求的格式function getData() { //学习数据 const heights = [150, 151, 160, 161, 16

[TensorFlow]01 张量

张量 01 张量的形状 import tensorflow as tf a=tf.constant(4) # 标量a print(a) tf.Tensor(4, shape=(), dtype=int32) b=tf.constant([2.0,3.0,4]) # 向量 print(b) tf.Tensor([2. 3. 4.], shape=(3,), dtype=float32) c=tf.constant([[1,2],[3,4]]) # 2个轴,类比与单通道

torch.cat() :tensor的append方法

原文: https://clay-atlas.com/blog/2020/06/15/pytorch-cn-note-torch-cat-append/ [PyTorch] 使用 torch.cat() 在 torch tensor 中實現如 List 資料結構中的 append() 操作 在我使用 PyTorch 搭建模型的過程中,經常會在處理資料時,對於如何將資料『串接』感到不知所措。 比方說在

[PyTorch] 使用 torch.cat() 在 torch tensor 中實現如 List 資料結構中的 append() 操作

原文: https://clay-atlas.com/blog/2020/06/15/pytorch-cn-note-torch-cat-append/ [PyTorch] 使用 torch.cat() 在 torch tensor 中實現如 List 資料結構中的 append() 操作 在我使用 PyTorch 搭建模型的過程中,經常會在處理資料時,對於如何將資料『串接』感到不知所措。 比方說在

nn.CrossEntropyLoss()使用是label参数的注意点

遇到个离谱的事情,自定义数据集跑cross entropy loss的时候, loss1 = w_loss.loss(log_ps1, source_batch_labels) loss1.backward() backward()这里总是报错,搞了半天最后发现是数据集设定的时候,给labels是int32,但是实际上得设置成int64 # toy_source数据类型转化 source_

深度学习基础之三分钟轻松搞明白tensor到底是个啥

pytorch 和tensorflow 中最重要的概念就是tensor了,tensorflow 这个框架的名字中很直白,就是tensor的流动,所以学习深度学习的第一课就是得搞懂tensor到底是个什么东西了,今天就来学习下,OK,起飞 1.tensor到底是啥 tensor 即“张量”(翻译的真难理解,破概念)。实际上跟numpy数组、向量、矩

代码笔记17 Pytorch中的requires_grad_()与requires_grad的区别

问题   感谢pycharm,我还不知道有一天我会发现这种问题,我本来是查看一下batchnorm2d中tensor的requires_grad属性,然后我就顺着快捷栏点下来的。结果发现requires_grad_()与requires_grad完全不一样。 代码 requires_grad for m in net.modules(): if isinstance(m,nn.Batc

torch中的mask:masked_fill, masked_select, masked_scatter

1. 简介   pytorch提供mask机制用来提取数据中“感兴趣”的部分。过程如下:左边的矩阵是原数据,中间的mask是遮罩矩阵,标记为1的表明对这个位置的数据“感兴趣”-保留,反之舍弃。整个过程可以视作是在原数据上盖了一层mask,只有感兴趣的部分(值为1)显露出来,而其他部分则背遮住。(matlab

深度学习实践4(Tensor相关)

注意: 1、w是Tensor,Tensor中包含data和grad,data和grad也是Tensor。grad初始为None,调用l.backward()方法后w.grad为Tensor,故更新w.data时需使用w.grad.data。 2、w是Tensor, forward函数的返回值也是Tensor,loss函数的返回值也是Tensor 3、本算法中反向传播主要体现在,l.backward()。调

【动手学深度学习pytorch】学习笔记 8.4 循环神经网络

8.4. 循环神经网络 — 动手学深度学习 2.0.0-beta0 documentation (d2l.ai) 主要内容: 对隐状态使用循环计算的神经网络。 隐状态可以捕获直到当前时间步序列的历史信息。 参数数量不会随着时间步的增加而增加。 可以使用循环神经网络创建字符级语言模型。 可以使用困惑