PyTorch深度学习实践 Lecture 02 Linear_Model
作者:互联网
bilibili 刘二大人《PyTorch深度学习实践》
视频链接:Lecture 02 Linear_Model
文档资料:
//Here is the link:
课件链接:https://pan.baidu.com/s/1vZ27gKp8Pl-qICn_p2PaSw
提取码:cxe4
文章目录
Linear Modle(线性模型)
简单的一个练习:
给定 3组 数据,即学习X小时(hours)可以得到Y分(points);
X(hours) | Y(points) |
---|---|
1 | 2 |
2 | 4 |
3 | 6 |
预测学习 4小时 (hours)可以得到多少分(points):
X(hours) | Y(points) |
---|---|
4 | ? |
过程
Linear Regression
基本步骤:
1、根据给定的 3组 数据建立一个线性模型(拟合一个线性函数);
2、不断改变参数 W ,使尽可能多的点落在拟合的直线上(True Line);
3、将 X=4 输入到模型当中,预测出学习4个小时后的分数。
Loss & Cost
在这里使用均方误差 MSE(Mean Square Error)来评价拟合的线性函数;
Compute Cost
计算各参数 W 对应的 Cost 值
Code
# Here is the code :
import numpy as np
import matplotlib.pyplot as plt
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
def forward(x): # 定义前向传播
return x*w
def loss(x, y): # 定义损失函数
y_pred = forward(x)
return (y_pred - y)**2
w_list = []
mse_list = []
for w in np.arange(0.0, 4.1, 0.1): # 使用穷举法来遍历 W 值
print("w=", w)
l_sum = 0
for x_val, y_val in zip(x_data, y_data):
y_pred_val = forward(x_val)
loss_val = loss(x_val, y_val)
l_sum += loss_val
print('\t', x_val, y_val, y_pred_val, loss_val)
print('MSE=', l_sum/3)
w_list.append(w)
mse_list.append(l_sum/3)
plt.plot(w_list,mse_list)
plt.ylabel('Loss')
plt.xlabel('w')
plt.show()
运行结果:
w= 0.0
1.00 2.00 0.00 4.00
2.00 4.00 0.00 16.00
3.00 6.00 0.00 36.00
MSE= 18.666666666666668
w= 0.1
1.00 2.00 0.10 3.61
2.00 4.00 0.20 14.44
3.00 6.00 0.30 32.49
MSE= 16.846666666666668
w=0.2
1.00 2.00 0.20 3.24
2.00 4.00 0.40 12.96
3.00 6.00 0.60 29.16
MSE= 15.120000000000003
w= 0.30000000000000004
1.00 2.00 0.30 2.89
2.00 4.00 0.60 11.56
3.00 6.00 0.90 26.01
MSE= 13.486666666666665
w=0.4
1.00 2.00 0.40 2.56
2.00 4.00 0.80 10.24
3.00 6.00 1.20 23.04
MSE= 11.946666666666667
w=0.5
1.00 2.00 0.50 2.25
2.00 4.00 1.00 9.00
3.00 6.00 1.50 20.25
MSE= 10.5
Exercise
代码
# Here is the code :
import numpy as np
import matplotlib.pyplot as plt
from mpl_toolkits.mplot3d import Axes3D
x_data = [1.0, 2.0, 3.0]
y_data = [2.0, 4.0, 6.0]
def forward(x):
return x * w + b
def loss(x, y):
y_pred = forward(x)
return (y_pred - y) ** 2
w_list = []
b_list = []
mse_list = []
for w in np.arange(0.0, 4.1, 0.1):
for b in np.arange(-2.0, 2.1, 0.1):
l_sum = 0
for x_val, y_val in zip(x_data, y_data):
y_pred_val = forward(x_val)
loss_val = loss(x_val, y_val)
l_sum += loss_val
w_list.append(w)
b_list.append(b)
mse_list.append(l_sum/3)
mse_list = np.array(mse_list)
mse_list = mse_list.reshape(41, 41)
mse_list = mse_list.transpose()
w, b = np.meshgrid(np.unique(w_list), np.unique(b_list))
fig = plt.figure(figsize=(8, 8))
ax = Axes3D(fig)
surf = ax.plot_surface(w, b, mse_list,
rstride=1, # 行(row)的跨度
cstride=1, # 列(column)的跨度
cmap=plt.get_cmap('rainbow'))
ax.set_zlim(0, 40) # Z轴lim
ax.set_xlabel('W') # 设置角标
ax.set_ylabel('b')
plt.title("Cost Values")
fig.colorbar(surf, shrink=0.5, aspect=10) # shrink:色彩条与图形高度的比例, aspect:色彩条本身的长宽比
plt.show()
运行结果
附录:相关文档资料
PyTorch 官方文档: PyTorch Documentation
PyTorch 中文手册: PyTorch Handbook
标签:02,loss,plt,Linear,val,list,PyTorch,mse,2.00 来源: https://blog.csdn.net/weixin_45084253/article/details/122156198