其他分享
首页 > 其他分享> > 机器学习实战——基于Scikit-Learn和TensorFlow 阅读笔记 之 第十三章:卷积神经网络

机器学习实战——基于Scikit-Learn和TensorFlow 阅读笔记 之 第十三章:卷积神经网络

作者:互联网

《机器学习实战——基于Scikit-Learn和TensorFlow》
这是一本非常好的机器学习和深度学习入门书,既有基本理论讲解,也有实战代码示例。
我将认真阅读此书,并为每一章内容做一个知识笔记。
我会摘录一些原书中的关键语句和代码,若有错误请为我指出。

在这里插入图片描述

目录

第十三章 卷积神经网络

1 视觉皮层的组织结构

视觉皮层神经元有一个小的局部 接受野
高阶神经元是基于相邻的低阶神经元的输出。

2 卷积层

每一层的神经元只与上一层接受野内的像素相连接。

这种结构允许网络集中在第一个隐藏层的低阶特征中,然后在下一个隐藏层中将它们组装成比较高阶的特征。

零填充 使上下有相同的高和宽,在输入周围填充零。

步幅 两个连续的接受野之间的距离。

2.1 过滤器

***过滤器(卷积内核)***。

一层使用了相同过滤器的神经元提供给我们一个 特征图,其中与过滤器特征相似的部分得到强化。

2.2 多个特征图的叠加

卷积层同时对其输入使用多个过滤器,使之能够检测到输入的多个特征。

特征图中所有神经元共享参数能够显著减小模型中的参数数量,但更重要的是,这一特性意味着一旦CNN学会了识别某个位置上的某个模式,它就可以在任何地方识别该模式。
相比之下,传统的DNN学会识别某个位置上的某个模式,它只能在特定的位置识别该模式。

2.3 TensorFlow实现

import numpy as np
from sklearn.datasets import load_sample_images

# Load sample images
china = load_sample_image("china.jpg")
flower = load_sample_image("flower.jpg")
dataset = np.array([china, flower], dtype=np.float32)
batch_size, height, width, channels = dataset.shape

# Create 2 filters
filters = np.zeros(shape=(7, 7, channels, 2), dtype=np.float32)
filters[:, 3, :, 0] = 1  # vertical line
filters[3, :, :, 1] = 1  # horizontal line

# Create a graph with input X plus a convolutional layer applying the 2 filters
X = tf.placeholder(tf.float32, shape=(None, height, width, channels))
convolution = tf.nn.conv2d(X, filters, strides=[1,2,2,1], padding="SAME")

with tf.Session() as sess:
    output = sess.run(convolution, feed_dict={X: dataset})

plt.imshow(output[0, :, :, 1], cmap="gray") # plot 1st image's 2nd feature map
plt.show()

2.4 内存需求

CNN的一个问题是卷积层需要大量的内存,特别是在训练期间,因为反向传播的方向传递需要在正向传递期间计算所有的中间值。

如果训练因为内存不足而崩溃,可以:

3 池化层

通过对输入图像进行 二次采样 以减小计算负载、内存利用率和参数数量(降低过拟合风险)。
减小输入图像的大小同样可以使神经网络容忍一定的图像位移。

必须定义接受野的大小、步幅、填充类型。

池化使用 聚合函数 聚合输入(最大值或平均)。

即使内核为2*2,步幅为2,两个方向的输出都会减小为原来的1/2,面积减小为1/4。

4 CNN架构

略。

4.1 LeNet-5

4.2 AlexNet

4.3 GoogLeNet

4.4 ResNet

标签:卷积,Scikit,np,步幅,filters,Learn,过滤器,TensorFlow,神经元
来源: https://blog.csdn.net/qq_38262728/article/details/88581374