首页 > TAG信息列表 > sigmoid

神经网络——浅浅的做个笔记

有四个激活函数 import matplotlib.pyplot as plt import numpy as np x = np.linspace(-10,10) y_sigmoid = 1/(1+np.exp(-x)) y_tanh = (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x)) fig = plt.figure() #plot sigmoid ax = fig.add_subplot(221) ax.plot(x,y_sigmoid) a

机器学习---神经网络(Neural Network)

1. 神经网络的基本概念 神经网络的分层:神经网络由输入层、隐藏层、输出层组成。 神经元之间的连接:层与层之间有神经元连接、而层内之间没有神经元连接。连接的神经元都有对应的权重。 输入层:负责接收输入的数据。 输出层:从这层获取神经网络输出数据。 隐藏层:输入层与输出层之间的

神经网络与深度学习(邱锡鹏)编程练习4 FNN 正向传播 numpy

NN模型:   ref:【人工智能导论:模型与算法】MOOC 8.3 误差后向传播(BP) 例题 【第三版】 - HBU_DAVID - 博客园 (cnblogs.com)   实验目标: 理解正向传播过程,熟悉numpy编程。 初始值: w1, w2, w3, w4, w5, w6, w7, w8 = 0.2, -0.4, 0.5, 0.6, 0.1, -0.5, -0.3, 0.8 x1, x2 = 0.5, 0

数据分析:神经网络

理解神经网络的本质 一、前言 最近深度学习是一个比较热门的词,各行各业都声称自己使用了深度学习技术。现在“深度学习”这个词,就像印在球鞋上的“Fashion”、“Sport”。那深度学习到底是什么呢? 深度学习是机器学习的一个分支,当我们使用了“深度神经网络”算法进行机器学习时,我们

NLP学习笔记-逻辑回归

  逻辑回归(Logistic Regression)仍然属于线性分类,是一种分类算法,用于解决二分类问题,估计某种事物的可能性,比如判定一封邮件是否为垃圾邮件;判定用户点击某广告的可能性;判定病人患某种疾病的可能性。由于是线性模型,预测时计算简单、预测速度非常快,当数据规模巨大时,相比SVM神经网络

【吴恩达深度学习】L1W1 学习笔记

1.2 什么是神经网络 卷积神经网络(CNN)——图像 循环神经网络(RNN),全称是长短期记忆网络(LSTM)——自然语言处理(NLP) ReLU 函数 线性整流函数(Linear rectification function),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的

李宏毅机器学习2022年学习笔记(一)

Introduction 1. 概念        机器学习可以应用到很多场景中,例如语音识别、图像识别、AI智能下棋等。        它的输入可以是一段声音信号/图片/物体之间的位置关系,数据类型例如:Vector、Matrix、Sequence等。之后通过机器学习寻找一种将输入进行转化为你想要的输出结

TF04——描述卷积计算层

TF04——描述卷积计算层 tf.keras.layers.Conv2D( filters=卷积核个数, kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w) strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1 padding="same"or"valid",#使用全零填充是"same",不使用是"v

Pytorch nn.BCEWithLogitsLoss() 的简单理解与用法

这个东西,本质上和nn.BCELoss()没有区别,只是在BCELoss上加了个logits函数(也就是sigmoid函数),例子如下: import torch import torch.nn as nn label = torch.Tensor([1, 1, 0]) pred = torch.Tensor([3, 2, 1]) pred_sig = torch.sigmoid(pred) loss = nn.BCELoss() print(loss(pr

人工智能面试总结-激活函数

目录 说说激活函数作用? 说说激活函数为什么需要非线性函数? 说说你知道的激活函数以及各自特点、适用场景? 说说ReLU6? 说说ELU指数线性单元特点? 说说Sigmoid的缺点,以及如何解决? 说说ReLU在零点可导吗,如何进行反向传播? Sigmoid求导推导一下? Softmax求导推导一下? 说说Softmax

菜菜的深度学习笔记 | 基于Python的理论与实现(二)

系列索引:菜菜的深度学习笔记 | 基于Python的理论与实现 文章目录 一、激活函数(1)阶跃函数的实现(2)sigmoid函数的实现(3)阶跃函数和sigmoid函数对比(4)非线性函数(5)ReLU函数 二、多维数组的运算(1)矩阵的乘积(2)神经网络的内积 一、激活函数 阶跃函数:以阈值为界,一旦超过阈值就切

刘二大人《Pytorch深度学习与实践》08加载数据集课后作业——titanic生存预测

具体代码如下,文件路径需要换成自己的 import numpy as np import torch from torch.utils.data import Dataset import pandas as pd from torch.utils.data import DataLoader # 数据准备 # 1、定义自己的数据集类 class My_dataset(Dataset): # 定义自己的数据集类,其继承于

了解深度学习(一)

一、logistic回归          已知输入x,参数w和b,预测出y帽的值,以此来表示预测事件的概率。其中sigmoid函数为激活函数。 损失函数是在单个训练样本中定义的用以衡量算法的运行情况,用来表示预测值y帽与y实际值有多接近的函数,而成本函数是衡量算法在全体训练样本上的表现,一

Pytorch入门

目录 环境配置 查看cuda是否安装完成 sigmod与relu函数 环境配置 查看cuda是否安装完成 查看在该目录下是否存在该文件。 在cmd命令行输入nvcc- V可以查看你的cuda版本。 查看Pytorch版本以及GPU是否可用   import torch print(torch.__version__) print('gpu:',torch.cu

Sigmoid函数以及逻辑回归的由来

       线性回归时统计学经典算法,它能够拟合出一条直线来描述变量之间的线性关系。但在实际中,变量之 间的关系通常都不是一条直线,而是呈现出某种曲线关系。在统计学的历史中,为了让统计学模型能够更好地拟合曲线,统计学家们在线性回归的方程两边引入了联系函数(link function),对

MMDetection源码解析:Focal loss

Focal loss在文件.\mmdet\models\losses\focal_loss.py实现,代码如下: import torch import torch.nn as nn import torch.nn.functional as F from mmcv.ops import sigmoid_focal_loss as _sigmoid_focal_loss from ..builder import LOSSES from .utils import weight_reduce_

《深度学习入门:基于Python的理论与实现》读书笔记:第3章 神经网络

目录 第3章 神经网络 3.1 从感知机到神经网络 3.1.1 神经网络的例子 3.1.2 复习感知机 3.1.3 激活函数登场 3.2 激活函数 3.2.1 sigmoid函数 3.2.2 阶跃函数的实现 3.2.4 sigmoid函数的实现 3.2.5 sigmoid函数和阶跃函数的比较 3.2.6 非线性函数 3.2.7 ReLU函数  3.3 多维数组

第四讲 Pytorch理解激活函数

第四讲 Pytorch理解激活函数 一 本节课程介绍 1.1 知识点 1、神经网络激活函数的基本介绍; 2、pytorch实现Relu激活函数; 3、pytorch实现Tanh激活函数; 4、pytorch实现Sigmoid激活函数; 二 课程内容 2.1 激活函数基本介绍 神经网络是通过算法模拟生物的神经传递实现的算法。在生

代码阅读的小技巧

查看模型每一层的输出情况 以基础的LeNet为例 import torch from torch import nn class Reshape(torch.nn.Module): def forward(self, x): return x.view(-1, 1, 28, 28) net = torch.nn.Sequential( Reshape(), nn.Conv2d(1, 6, kernel_size=5, padding

吴恩达 深度学习 2021版 作业

练习 神经网络与深度学习神经网络基础Numpy基础1-使用numpy构建基本函数 神经网络与深度学习 神经网络基础 Numpy基础 学习目标: 使用numpy,包括函数调用及向量矩阵运算广播向量化代码 1-使用numpy构建基本函数 1.1- sigmoid function和np.exp() 在使用np.exp()之前,你将使

[杂记]激活函数SiLU和Swish的区别

从代码和公式来看,Swish包含了SiLU,换句话说SiLU是Swish的一种特例。 S i L U ( x

计算机视觉面试宝典--深度学习机器学习基础篇(三)

计算机视觉面试宝典–深度学习机器学习基础篇(三) 本篇主要包含数据类问题、正则化、激活函数与梯度以及回归等相关面试经验。 数据类问题 1.样本不平衡的处理方法 ①欠采样 - 随机删除观测数量足够多的类,使得两个类别间的相对比例是显著的。虽然这种方法使用起来非常简单,但很

sigmoid/ReLu

-人工神经元\激活函数

#--------------------------------|--------------------------------------------------------------------------#-为什么要激活函数: -线性变换无法扩展特征空间,得到的特征空间有限,线性的层只能学习到输入(输入空间)的线性变换(仿射变换)。 -非线性的激活函数能将输入空间映射

Numpy基础

Numpy基础 s =1/(1+math.exp(-x)) #不能用作向量 import numpy as np # numpy可以用作向量 # example of np.exp x = np.array([1, 2, 3]) print(np.exp(x)) # result is (exp(1), exp(2), exp(3)) 实现一个sigmod import numpy as np # this means you can access numpy funct