其他分享
首页 > 其他分享> > tensorflow入门03——搭建两层的简单神经网络

tensorflow入门03——搭建两层的简单神经网络

作者:互联网

搭建一个简单的神经网络对mnist数据集中的手写数字数据集进行训练和测试。

 

输入的每张数据包含784个像素点,第一层为784行256列的矩阵,第二层是256行128列的矩阵,输出层则将结果转换为10个输出值,代表手写数字的10种分类结果,每层有一个权重值weight和偏置bias

 

代码实现

#搭建两层的神经网络
import numpy as np
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
import matplotlib.pyplot as plt
import input_data

#加载数据集
minst=input_data.read_data_sets('data/data/', one_hot=True)

#设置参数
n_hidden_1=256 #第一层输出
n_hidden_2=128 #第二层输出
n_input=784 #输入像素点
n_classes=10 #分类结果

#输入输出
x=tf.placeholder("float",[None,n_input])
y=tf.placeholder("float",[None,n_classes])

#神经网络参数
stddev=0.1
weights={
    'w1':tf.Variable(tf.random_normal([n_input,n_hidden_1],stddev=stddev)),  #高斯初始化
    'w2':tf.Variable(tf.random_normal([n_hidden_1,n_hidden_2],stddev=stddev)),
    'out':tf.Variable(tf.random_normal([n_hidden_2,n_classes],stddev=stddev))
}
biases={
    'b1':tf.Variable(tf.random_normal([n_hidden_1])),
    'b2':tf.Variable(tf.random_normal([n_hidden_2])),
    'out':tf.Variable(tf.random_normal([n_classes]))

}
print('NetWork Ready')

def multilayer_perceptron(_X,_weights,_biases):
    layer_1=tf.nn.sigmoid(tf.add(tf.matmul(_X,_weights['w1']),biases['b1']))   #sigmoid激活函数
    layer_2=tf.nn.sigmoid(tf.add(tf.matmul(layer_1,_weights['w2']),_biases['b2']))
    return (tf.matmul(layer_2,_weights['out'])+_biases['out'])

#预测
pred=multilayer_perceptron(x,weights,biases)

#损失和优化器
learning_rate=0.01
cost=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits_v2(y,pred))
optm=tf.train.GradientDescentOptimizer(learning_rate=learning_rate).minimize(cost)
corr=tf.equal(tf.argmax(pred,1),tf.argmax(y,1))
accr=tf.reduce_mean(tf.cast(corr,"float"))

#初始化
init=tf.global_variables_initializer()
print('function ready')

#训练参数
training_epochs=20
batch_size=100
display_step=4
#开始训练
sess=tf.Session()
sess.run(init)
feeds={}
for epoch in range(training_epochs):
    avg_cost=0.
    total_batch=int(minst.train.num_examples/batch_size)
    for i in range(total_batch):
        batch_xs,batch_ys=minst.train.next_batch(batch_size)
        feeds={x:batch_xs,y:batch_ys}
        sess.run(optm,feed_dict=feeds)
        avg_cost+=sess.run(cost,feed_dict=feeds)
    avg_cost=avg_cost/total_batch
    if(epoch+1)%display_step==0:
        print('Epoch:%03d/%03d cost:%.9f'%(epoch+1,training_epochs,avg_cost))
        train_acc=sess.run(accr,feed_dict=feeds)
        print('TRAIN ACCURACY:%.3f'%(train_acc))
        feeds={x:minst.test.images,y:minst.test.labels}
        test_acc=sess.run(accr,feed_dict=feeds)
        print('TEST ACCURACY:%.3f'%(test_acc))
print('训练完成')

 

 训练结果

 

标签:03,batch,神经网络,cost,stddev,tf,tensorflow,hidden,feeds
来源: https://www.cnblogs.com/XiaoGao128/p/14281464.html