机器学习,深度学习相关概念,及用PyTorch实现(二)——Logistic回归模型
作者:互联网
Logistic回归是一种广义的回归模型,其与多元线性回归有着很多相似之处,模型的形式基本相同,虽然也被称为回归,但是其更多的情况使用在分类问题上,同时又以二分类更为常用。
回归和分类:回归问题得到的结果是连续的,比如通过学习时间预测成绩
分类问题是将数据分成几类,比如根据邮件信息将邮件分成垃圾邮件和有效邮件两类
Logistic回归的模型形式和线性回归一样,都是y=wx+b, 其中x可以是一个多维的特征,唯一不同的地方在于Logistic回归会对y作用一个logistic函数,将其变为一种概率的结果。Logistic 函数作为Logistic回归的核心,也被称为Sigmoid函数。
Sigmoid函数
可以看到Sigmoid函数的范围是在0~1之间,所以任何一个值经过了Sigmoid 函数的作用,都会变成0~1之间的一个值,这个值可以形象地理解为一个概率,比如对于二分类问题,这个值越小就表示属于第一类,这个值越大就表示属于第二类。
损失函数:
Logistic回归使用了Sigmoid函数将结果变到0~1之间,对于任意输入一个数据,经过Sigmoid之后的结果我们记为yΛ, 表示这个数据点属于第二类的概率,那么其属于第一类的概率就是1 - yΛ.如果这个数据点属于第二类,我们希望y越大越好,也就是越靠近1越好,如果这个数据属于第一类,那么我们希望1- yΛ越大越好,也就是yΛ越小越好,越靠近0越好,所以我们可以这样设计我们的loss函数
其中y表示真实的label,只能取{0, 1}这两个值,因为y表示经过Logistic回归预测之后的结果,是一个0~ 1之间的小数。如果y是0,表示该数据属于第一-类, 我们希望yΛ越小越好,上面的loss函数变为
在训练模型的时候我们希望最小化loss函数,根据log函数的单调性,也就是最小化yΛ,与我们的要求是一致的。而如果y是1,表示该数据属于第二类,我们希望y^越大越好,同时上面的loss函数变为
我们希望最小化loss函数也就是最大化y^。
PyTorch实现逻辑回归模型
import torch
from torch.autograd import Variable
import numpy as np
import matplotlib.pyplot as plt
#设定随机种子
torch.manual_seed(2020)
#从data.txt读入数据
with open('data.txt','r') as f:
data_list=[i.split('\n')[0].split(',') for i in f.readlines()]
data=[(float(i[0]),float(i[1]),float(i[2])) for i in data_list]
#标准化
x0_max=max([i[0] for i in data])
x1_max=max([i[1] for i in data])
data=[(i[0]/x0_max,i[1]/x1_max,i[2]) for i in data]
x0=list(filter(lambda x:x[-1]==0.0,data))#选择第一类的点
x1=list(filter(lambda x:x[-1]==1.0,data))#选择第二类的点
plot_x0=[i[0] for i in x0]
plot_y0=[i[1] for i in x0]
plot_x1=[i[0] for i in x1]
plot_y1=[i[1] for i in x1]
plt.plot(plot_x0,plot_y0,'ro',label='x_0')
plt.plot(plot_x1,plot_y1,'bo',label='x_1')
plt.legend(loc='best')
plt.show()
#定义sigmod函数
def sigmoid(x):
return 1/(1+np.exp(-x))
#画出sigmoid的图像
plot_x=np.arange(-10,10.01,0.01)
plot_y=sigmoid(plot_x)
plt.plot(plot_x,plot_y,'r')
plt.show()
#画出sigmoid的图像
plot_x=np.arange(-10,10.01,0.01)
plot_y=sigmoid(plot_x)
plt.plot(plot_x,plot_y,'r')
plt.show()
x_data=Variable(x_data)
y_data=Variable(y_data)
# 在PyTorch当中,不需要我们自己写Sigmoid的函数,PyTorch 已经用底层的C++语言为我们写好了一
# 些常用的函数,不仅方便我们使用,同时速度上比我们自己实现的更快,稳定性更好
#定义logistic回归模型
w=Variable(torch.randn(2,1),requires_grad=True)
b=Variable(torch.zeros(1),requires_grad=True)
#在更新之前画出分类效果
w0=w[0].data[0].numpy()
w1=w[1].data[0].numpy()
b0=b.data[0].numpy()
plot_x=np.arange(0.2,1,0.01)
plot_y=(-w0 * plot_x-b0)/w1
plt.plot(plot_x,plot_y,'g',label="cutting line")
plt.plot(plot_x0,plot_y0,'ro',label="x_0")
plt.plot(plot_x1,plot_y1,'bo',label="x_1")
plt.legend(loc="best")
plt.show()
分类结果是混乱的。
import torch
from torch.autograd import Variable
import numpy as np
import matplotlib.pyplot as plt
import torch.nn.functional as F
#设定随机种子
torch.manual_seed(2020)
#从data.txt读入数据
with open('data.txt','r') as f:
data_list=[i.split('\n')[0].split(',') for i in f.readlines()]
data=[(float(i[0]),float(i[1]),float(i[2])) for i in data_list]
#标准化
x0_max=max([i[0] for i in data])
x1_max=max([i[1] for i in data])
data=[(i[0]/x0_max,i[1]/x1_max,i[2]) for i in data]
x0=list(filter(lambda x:x[-1]==0.0,data))#选择第一类的点
x1=list(filter(lambda x:x[-1]==1.0,data))#选择第二类的点
plot_x0=[i[0] for i in x0]
plot_y0=[i[1] for i in x0]
plot_x1=[i[0] for i in x1]
plot_y1=[i[1] for i in x1]
plt.plot(plot_x0,plot_y0,'ro',label='x_0')
plt.plot(plot_x1,plot_y1,'bo',label='x_1')
plt.legend(loc='best')
plt.show()
#接下来将数据转化为Numpy的类型,接着转换到Tensor为之后的训练做准备
np_data=np.array(data,dtype='float32')#转换成numpy array
x_data=torch.from_numpy(np_data[:,0:2])#转换成Tensor,大小是【100,2】
y_data=torch.from_numpy(np_data[:,-1]).unsqueeze(1)#转换成Tensor,大小是【100,2】
#定义sigmod函数
def sigmoid(x):
return 1/(1+np.exp(-x))
#画出sigmoid的图像
plot_x=np.arange(-10,10.01,0.01)
plot_y=sigmoid(plot_x)
plt.plot(plot_x,plot_y,'r')
plt.show()
x_data=Variable(x_data)
y_data=Variable(y_data)
# 在PyTorch当中,不需要我们自己写Sigmoid的函数,PyTorch 已经用底层的C++语言为我们写好了一
# 些常用的函数,不仅方便我们使用,同时速度上比我们自己实现的更快,稳定性更好
#定义logistic回归模型
w=Variable(torch.randn(2,1),requires_grad=True)
b=Variable(torch.zeros(1),requires_grad=True)
def logistic_regression(x):
return F.sigmoid(torch.mm(x,w)+b)
#在更新之前画出分类效果
w0=w[0].data[0].numpy()
w1=w[1].data[0].numpy()
b0=b.data[0].numpy()
plot_x=np.arange(0.2,1,0.01)
plot_y=(-w0 * plot_x-b0)/w1
plt.plot(plot_x,plot_y,'g',label="cutting line")
plt.plot(plot_x0,plot_y0,'ro',label="x_0")
plt.plot(plot_x1,plot_y1,'bo',label="x_1")
plt.legend(loc="best")
plt.show()
#计算
def binary_loss(y_pred,y):
logits=(y*y_pred.clamp(1e-12).log()+(1-y)*(1-y_pred).clamp(1e-12).log()).mean()
return -logits
y_pred=logistic_regression(x_data)
loss=binary_loss(y_pred,y_data)
print(loss)
#自动求导并更新参数
loss.backward()
w.data=w.data-0.1*w.grad.data
b.data=b.data-0.1*b.grad.data
#算出一次更新后的loss
y_pred=logistic_regression(x_data)
loss=binary_loss(y_pred,y_data)
print(loss)
#使用torch.optim更新参数
from torch import nn
w=nn.Parameter(torch.randn(2,1))
b=nn.Parameter(torch.zeros(1))
def logistic_regression(x):
return F.sigmoid(torch.mm(x,w)+b)
optimizer=torch.optim.SGD([w,b],lr=1.)
#进行一百次更新
import time
start=time.time()
for e in range(1000):
#前向传播
y_pred=logistic_regression(x_data)
loss=binary_loss(y_pred,y_data)#计算loss
#反向传播
optimizer.zero_grad()#使用优化器将梯度归0
loss.backward()
optimizer.step()#使用优化器来更新参数
#计算正确率
mask=y_pred.ge(0.5).float()
acc=(mask==y_data).sum().item()/y_data.shape[0]
if(e+1)%200==0:
print('epoch:{},Loss:{:5f},ACC:{:.5f}'.format(e+1,loss.item(),acc))
during=time.time()
print('During Time:{:.3f} s'.format(during))
#画出更新后的结果
w0=w[0].data[0].numpy()
w1=w[1].data[0].numpy()
b0=b.data[0].numpy()
plot_x=np.arange(0.2,1,0.01)
plot_y=(-w0*plot_x-b0)/w1
plt.plot(plot_x,plot_y,'g',label="cutting line")
plt.plot(plot_x0,plot_y0,'ro',label="x_0")
plt.plot(plot_x1,plot_y1,'bo',label="x_1")
plt.legend(loc="best")
plt.show()
模型已经能够将两类点分开了,
前面使用了自己写的loss,其实PyTorch已经为我们写好了一些常见的loss,比如线性回归里面的loss是nn.MSE(),而Logistic回归的二分类loss在PyTorch中是nn. BCEWithLogitsLoss()。
PyTorch为我们实现的loss函数有两个好处,第一是方便我们使用,不需要重复造轮子,第二就是其实现是在底层C++语言上的,所以速度上和稳定性上都要比我们自己实现的要好。
另外,PyTorch 出于稳定性考虑,将模型的Sigmoid操作和最后的loss都合在了
nn. BCEWithLogitsLoss(),所以我们使用PyTorch自带的loss就不需要再加上Sigmoid操作了。
import torch
from torch.autograd import Variable
import numpy as np
import matplotlib.pyplot as plt
import torch.nn.functional as F
#设定随机种子
torch.manual_seed(2020)
#从data.txt读入数据
with open('data.txt','r') as f:
data_list=[i.split('\n')[0].split(',') for i in f.readlines()]
data=[(float(i[0]),float(i[1]),float(i[2])) for i in data_list]
#标准化
x0_max=max([i[0] for i in data])
x1_max=max([i[1] for i in data])
data=[(i[0]/x0_max,i[1]/x1_max,i[2]) for i in data]
x0=list(filter(lambda x:x[-1]==0.0,data))#选择第一类的点
x1=list(filter(lambda x:x[-1]==1.0,data))#选择第二类的点
plot_x0=[i[0] for i in x0]
plot_y0=[i[1] for i in x0]
plot_x1=[i[0] for i in x1]
plot_y1=[i[1] for i in x1]
#接下来将数据转化为Numpy的类型,接着转换到Tensor为之后的训练做准备
np_data=np.array(data,dtype='float32')#转换成numpy array
x_data=torch.from_numpy(np_data[:,0:2])#转换成Tensor,大小是【100,2】
y_data=torch.from_numpy(np_data[:,-1]).unsqueeze(1)#转换成Tensor,大小是【100,2】
x_data=Variable(x_data)
y_data=Variable(y_data)
# 在PyTorch当中,不需要我们自己写Sigmoid的函数,PyTorch 已经用底层的C++语言为我们写好了一
# 些常用的函数,不仅方便我们使用,同时速度上比我们自己实现的更快,稳定性更好
#定义logistic回归模型
w=Variable(torch.randn(2,1),requires_grad=True)
b=Variable(torch.zeros(1),requires_grad=True)
def logistic_regression(x):
return F.sigmoid(torch.mm(x,w)+b)
#在更新之前画出分类效果
w0=w[0].data[0].numpy()
w1=w[1].data[0].numpy()
b0=b.data[0].numpy()
#计算
def binary_loss(y_pred,y):
logits=(y*y_pred.clamp(1e-12).log()+(1-y)*(1-y_pred).clamp(1e-12).log()).mean()
return -logits
y_pred=logistic_regression(x_data)
loss=binary_loss(y_pred,y_data)
print(loss)
from torch import nn
import time
# 使用自带的loss
criterion = nn.BCEWithLogitsLoss() # 将 sigmoid 和 loss 写在一层,有更快的速度、更好的稳定性
w = nn.Parameter(torch.randn(2, 1))
b = nn.Parameter(torch.zeros(1))
def logistic_reg(x):
return torch.mm(x, w) + b
optimizer = torch.optim.SGD([w, b], 1.)
# y_pred = logistic_reg(x_data)
# loss = criterion(y_pred, y_data)
print(loss.data)
# 同样进行 1000 次更新
start = time.time()
for e in range(1000):
# 前向传播
y_pred = logistic_reg(x_data)
loss = criterion(y_pred, y_data)
# 反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 计算正确率
mask = y_pred.ge(0.5).float()
acc = (mask == y_data).sum().item() / y_data.shape[0]
if (e + 1) % 200 == 0:
print('epoch: {}, Loss: {:.5f}, Acc: {:.5f}'.format(e+1, loss.item(), acc))
during = time.time() - start
print('During Time: {:.3f} s'.format(during))
# 画出更新之后的结果
w0 = w[0].data[0].cpu().numpy()
w1 = w[1].data[0].cpu().numpy()
b0 = b.data[0].cpu().numpy()
plot_x = np.arange(0.2, 1, 0.01)
plot_y = (-w0 * plot_x - b0) / w1
plt.plot(plot_x, plot_y, 'g', label='cutting line')
plt.plot(plot_x0, plot_y0, 'ro', label='x_0')
plt.plot(plot_x1, plot_y1, 'bo', label='x_1')
plt.legend(loc='best')
plt.show()
data.txt
34.62365962451697,78.0246928153624,0
30.28671076822607,43.89499752400101,0
35.84740876993872,72.90219802708364,0
60.18259938620976,86.30855209546826,1
79.0327360507101,75.3443764369103,1
45.08327747668339,56.3163717815305,0
61.10666453684766,96.51142588489624,1
75.02474556738889,46.55401354116538,1
76.09878670226257,87.42056971926803,1
84.43281996120035,43.53339331072109,1
95.86155507093572,38.22527805795094,0
75.01365838958247,30.60326323428011,0
82.30705337399482,76.48196330235604,1
69.36458875970939,97.71869196188608,1
39.53833914367223,76.03681085115882,0
53.9710521485623,89.20735013750205,1
69.07014406283025,52.74046973016765,1
67.94685547711617,46.67857410673128,0
70.66150955499435,92.92713789364831,1
76.97878372747498,47.57596364975532,1
67.37202754570876,42.83843832029179,0
89.67677575072079,65.79936592745237,1
50.534788289883,48.85581152764205,0
34.21206097786789,44.20952859866288,0
77.9240914545704,68.9723599933059,1
62.27101367004632,69.95445795447587,1
80.1901807509566,44.82162893218353,1
93.114388797442,38.80067033713209,0
61.83020602312595,50.25610789244621,0
38.78580379679423,64.99568095539578,0
61.379289447425,72.80788731317097,1
85.40451939411645,57.05198397627122,1
52.10797973193984,63.12762376881715,0
52.04540476831827,69.43286012045222,1
40.23689373545111,71.16774802184875,0
54.63510555424817,52.21388588061123,0
33.91550010906887,98.86943574220611,0
64.17698887494485,80.90806058670817,1
74.78925295941542,41.57341522824434,0
34.1836400264419,75.2377203360134,0
83.90239366249155,56.30804621605327,1
51.54772026906181,46.85629026349976,0
94.44336776917852,65.56892160559052,1
82.36875375713919,40.61825515970618,0
51.04775177128865,45.82270145776001,0
62.22267576120188,52.06099194836679,0
77.19303492601364,70.45820000180959,1
97.77159928000232,86.7278223300282,1
62.07306379667647,96.76882412413983,1
91.56497449807442,88.69629254546599,1
79.94481794066932,74.16311935043758,1
99.2725269292572,60.99903099844988,1
90.54671411399852,43.39060180650027,1
34.52451385320009,60.39634245837173,0
50.2864961189907,49.80453881323059,0
49.58667721632031,59.80895099453265,0
97.64563396007767,68.86157272420604,1
32.57720016809309,95.59854761387875,0
74.24869136721598,69.82457122657193,1
71.79646205863379,78.45356224515052,1
75.3956114656803,85.75993667331619,1
35.28611281526193,47.02051394723416,0
56.25381749711624,39.26147251058019,0
30.05882244669796,49.59297386723685,0
44.66826172480893,66.45008614558913,0
66.56089447242954,41.09209807936973,0
40.45755098375164,97.53518548909936,1
49.07256321908844,51.88321182073966,0
80.27957401466998,92.11606081344084,1
66.74671856944039,60.99139402740988,1
32.72283304060323,43.30717306430063,0
64.0393204150601,78.03168802018232,1
72.34649422579923,96.22759296761404,1
60.45788573918959,73.09499809758037,1
58.84095621726802,75.85844831279042,1
99.82785779692128,72.36925193383885,1
47.26426910848174,88.47586499559782,1
50.45815980285988,75.80985952982456,1
60.45555629271532,42.50840943572217,0
82.22666157785568,42.71987853716458,0
88.9138964166533,69.80378889835472,1
94.83450672430196,45.69430680250754,1
67.31925746917527,66.58935317747915,1
57.23870631569862,59.51428198012956,1
80.36675600171273,90.96014789746954,1
68.46852178591112,85.59430710452014,1
42.0754545384731,78.84478600148043,0
75.47770200533905,90.42453899753964,1
78.63542434898018,96.64742716885644,1
52.34800398794107,60.76950525602592,0
94.09433112516793,77.15910509073893,1
90.44855097096364,87.50879176484702,1
55.48216114069585,35.57070347228866,0
74.49269241843041,84.84513684930135,1
89.84580670720979,45.35828361091658,1
83.48916274498238,48.38028579728175,1
42.2617008099817,87.10385094025457,1
99.31500880510394,68.77540947206617,1
55.34001756003703,64.9319380069486,1
74.77589300092767,89.52981289513276,1
可以看到,使用了PyTorch自带的loss之后,速度有了一定的上升,虽然看上去速度的提升并不多,但是这只是一个小网络,对于大网络,使用自带的loss不管对于稳定性还是速度而言,都有质的飞跃,同时也避免了重复造轮子的困扰。
标签:loss,plt,plot,torch,PyTorch,及用,Logistic,x0,data 来源: https://blog.csdn.net/qq_41251963/article/details/103978621