其他分享
首页 > 其他分享> > 《PyTorch深度学习实践》 课堂笔记 Lesson6 使用PyTorch实现Logistic回归

《PyTorch深度学习实践》 课堂笔记 Lesson6 使用PyTorch实现Logistic回归

作者:互联网

文章目录


1.交叉熵

若存在两个分布 P D 1 ( x )    , P D 2 ( x ) P_{D_1}\left( x \right) \,\,, P_{D_2}\left( x \right) PD1​​(x),PD2​​(x)交叉熵可以由以下公式表示:

∑ i P D ( x = i ) ⋅ ln ⁡ ( P T ( x = i ) ) \sum_i^{}{P_D\left( x=i \right) \cdot \ln \left( P_T\left( x=i \right) \right)} i∑​PD​(x=i)⋅ln(PT​(x=i))

交叉熵可以用来衡量两个分布时间的相似性它的值越大,两个分布越相似,这个思想可用到我们的回归思想中,即预测值与实际值的分布越相似,效果越好

又由于要与前面模型的损失函数类似(在画损失函数图的时候loss函数呈现一个下降的方式(越小越好)),我们再在交叉熵的前面加上负号,所以后最终损失函数如下:

− ∑ i = 1 N ( y log ⁡ y ^ + ( 1 − y ) log ⁡ ( 1 − y ^ ) ) -\sum_{i=1}^N{\left( y\log \hat{y}+\left( 1-y \right) \log \left( 1-\hat{y} \right) \right)} −i=1∑N​(ylogy^​+(1−y)log(1−y^​))


2.线性回归和Logistic回归的区别

若设回归方程为 y = w x + b y = wx +b y=wx+b则有
Logistic损失函数称为BCE(Binary Cross Entropy)

对比线性回归Logistic回归
损失函数(loss func) l o s s = ( y ^ − y ) 2 = ( x w − y ) 2 loss = (\hat{y}-y)^2=(xw-y)^2 loss=(y^​−y)2=(xw−y)2 l o s s = − ( y l o g y ^ + ( 1 − y ) l o g ( 1 − y ^ ) loss = -(ylog\hat{y}+(1-y)log(1-\hat{y}) loss=−(ylogy^​+(1−y)log(1−y^​)
函数输出几何数值(直接通过大小衡量)通过二进制交叉熵直接比较两个分布的差异性
正向指标越小越好越小越好( y 与 y ^ y与\hat{y} y与y^​的分布越接近越好)

3.实现过程

3.1源代码

# -*- coding:utf-8 -8-
"""
Author: FeverTwice
Date: 2021--08--03
"""

# import torch.nn.functional as F
import torch
import numpy as np
import matplotlib.pyplot as plt

#数据集导入
x_data = torch.Tensor([[1.0], [2.0], [3.0]])
y_data = torch.Tensor([[0], [0], [1]])

#==========================================================#

# 定义函数模块
class LogsticRegressionModel(torch.nn.Module):
    # 构造函数部分
    def __init__(self):
        super(LogsticRegressionModel, self).__init__()
        self.linear = torch.nn.Linear(1, 1)

    # 在function包上面调用sig函数
    def forward(self, x):
        y_pred = torch.sigmoid(self.linear(x))
        return y_pred

model = LogsticRegressionModel()

#==========================================================#

#构造logstic回归递归函数,并设置不用求和
criterion = torch.nn.BCELoss(size_average=False)

#选择优化方法
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 存储迭代数值
lost_vector = []
epoch_vect = np.arange(1, 1001)

#=================下面部分与上一章节的源代码的迭代部分相同========================

# 迭代训练循环
for epoch in range(1000):
    y_pred = model(x_data)
    loss = criterion(y_pred, y_data)
    print(epoch, loss.item())
    lost_vector.append(loss.item())

    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

print('w = ', model.linear.weight.item())
print('b = ', model.linear.bias.item())

x_test = torch.Tensor([[4.0]])
y_test = model(x_test)
print('y_pred = ', y_test.data.item())

# 画图
plt.plot(epoch_vect,lost_vector)
plt.show()

3.2训练结果

lesson6
2


# 写在最后 本文章为[《PyTorch深度学习实践》完结合集](https://www.bilibili.com/video/BV1Y7411d7Ys?p=2&spm_id_from=pageDriver)课程对应的一些课后习题解答,仅为各位同志学习参考之用

各位看官,都看到这里了,麻烦动动手指头给博主来个点赞8,您的支持作者最大的创作动力哟! <(^-^)>
才疏学浅,若有纰漏,恳请斧正
本文章仅用于各位同志作为学习交流之用,不作任何商业用途,若涉及版权问题请速与作者联系,望悉知

标签:loss,right,Lesson6,torch,PyTorch,log,Logistic,hat,left
来源: https://blog.csdn.net/LeungSr/article/details/119358427