首页 > TAG信息列表 > 刘二

刘二大人《Pytorch深度学习实践》02.线性模型

本人根据b站上刘老师的视频,简单做了一下,内容主要包括课上所讲内容的复现以及所留作业的实现。具体代码解释我都按照自己的理解放在代码后面了,如有不对的地方请多多包涵,毕竟俺也是第一次学,只是想找个地方把学到的东西找个地方存起来~ from collections import OrderedDict impor

刘二大人《PyTorch深度学习实践》多分类问题

课程请见 《PyTorch深度学习实践》 # PyTorch import torch from torch import nn from torch.utils import data from torchvision import datasets from torchvision import transforms from torch import optim # For plotting import matplotlib.pyplot as plt import o

深度学习——反向传播算法及代码实例(B站刘二大人P4学习笔记)

1 为什么要引入反向传播算法?        在之前的学习中,我们仅仅学习了只有一层的神经网络的计算,例如模型函数为,在使用梯度下降算法进行训练的时候,很轻松就可以利用求导公式计算出。        但是在神经网络中不可能仅仅只有一层,神经网络就行我们大脑的神经系统,由很多层攀枝

Pytorch深度学习实践(b站刘二大人)_04讲

本节课讲的是反向传播。 课堂代码: #反向传播课上代码 import torch x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] w = torch.tensor([1.0]) # w的初值为1.0 w.requires_grad = True # 默认为False,True表示需要计算梯度 def forward(x): return x * w d

Pytorch深度学习实践(b站刘二大人)_03讲

刘老师讲的十分细节,易于理解,大家可以去学习,课堂地址,废话不多说,直接上代码。 梯度下降算法课堂代码: # 梯度下降算法 import matplotlib.pyplot as plt x_data = [1.0,2.0,3.0] y_data = [2.0,4.0,6.0] w = 1.0 def forward(x): return x * w #计算损失函数MSE def co

刘二Pytorch第二章

线性模型: import numpy as np import matplotlib.pyplot as plt x_data = [1.0, 2.0, 3.0] y_data = [2.0, 4.0, 6.0] def forward(x): return x * w def loss(x, y): y_pred = forward(x) return (y_pred - y) * (y_pred - y) w_list = [] mse_list = [] for w

刘二大人pytorch入门-笔记

视频教程刘二大人的pytorch testpytorch 1、测试pytorch版本2、线性模型3、梯度下降 1、测试pytorch版本 2、线性模型 import numpy as np import matplotlib.pyplot as plt x_data = [1.0,2.0,3.0] y_data = [2.0,4.0,6.0] def forward(x): return x*w def loss