其他分享
首页 > 其他分享> > (实践)单层感知器——异或问题&线性神经网络,Delta学习规则&线性神经网络解决异或问题

(实践)单层感知器——异或问题&线性神经网络,Delta学习规则&线性神经网络解决异或问题

作者:互联网

'''
异或
0^0 = 0
0^1 = 1
1^0 = 1
1^1 = 0
'''
import numpy as np
import matplotlib.pyplot as plt
#输入数据
X = np.array([[1,0,0],
              [1,0,1],
              [1,1,0],  
              [1,1,1]])
#标签
Y = np.array([[-1],
              [1],
              [1],
              [-1]])

#权值初始化,3行1列,取值范围-1到1
W = (np.random.random([3,1])-0.5)*2

print(W)
#学习率设置
lr = 0.11
#神经网络输出
O = 0

def update():
    global X,Y,W,lr
    O = np.sign(np.dot(X,W)) # shape:(3,1)
    W_C = lr*(X.T.dot(Y-O))/int(X.shape[0])
    W = W + W_C

在这里插入图片描述

for i in range(100):
    update()#更新权值
    print(W)#打印当前权值
    print(i)#打印迭代次数
    O = np.sign(np.dot(X,W))#计算当前输出  
    if(O == Y).all(): #如果实际输出等于期望输出,模型收敛,循环结束
        print('Finished')
        print('epoch:',i)
        break

#正样本
x1 = [0,1]
y1 = [1,0]
#负样本
x2 = [0,1]
y2 = [0,1]

#计算分界线的斜率以及截距
k = -W[1]/W[2]
d = -W[0]/W[2]
print('k=',k)
print('d=',d)

xdata = (-2,3)

plt.figure()
plt.plot(xdata,xdata*k+d,'r')
plt.scatter(x1,y1,c='b')
plt.scatter(x2,y2,c='y')
plt.show()

#最后的结果我们发现它是执行了100次才跳出循环,说明无法用一条直线来进行非线性分类问题

在这里插入图片描述
线性神经网络
在这里插入图片描述

import numpy as np
import matplotlib.pyplot as plt
#输入数据
X = np.array([[1,3,3],
              [1,4,3],
              [1,1,1],
              [1,0,2]])
#标签
Y = np.array([[1],
              [1],
              [-1],
              [-1]])

#权值初始化,3行1列,取值范围-1到1
W = (np.random.random([3,1])-0.5)*2

print(W)
#学习率设置
lr = 0.11
#神经网络输出
O = 0

def update():
    global X,Y,W,lr
    O = np.dot(X,W)  #因为线性用得函数是y=x所以这里可以直接写,而不是引用激活函数
    W_C = lr*(X.T.dot(Y-O))/int(X.shape[0])
    W = W + W_C

在这里插入图片描述

for _ in range(100):
    update()#更新权值

    #正样本
    x1 = [3,4]
    y1 = [3,3]
    #负样本
    x2 = [1,0]
    y2 = [1,2]

    #计算分界线的斜率以及截距
    k = -W[1]/W[2]
    d = -W[0]/W[2]
    print('k=',k)
    print('d=',d)

    xdata = (0,5)

    plt.figure()
    plt.plot(xdata,xdata*k+d,'r')
    plt.scatter(x1,y1,c='b')
    plt.scatter(x2,y2,c='y')
    plt.show()

在这里插入图片描述
过程
在这里插入图片描述
Delta学习规则
在这里插入图片描述
在这里插入图片描述
梯度下降法——一维情况
在这里插入图片描述
梯度下降法——二维情况
在这里插入图片描述
在这里插入图片描述
解决异或问题
在这里插入图片描述

标签:plt,print,神经网络,np,异或,lr,xdata,权值,线性
来源: https://blog.csdn.net/shanshuyue/article/details/121224207