快捷搜索:  汽车  科技

cnn最简单例子(CNN--简单入门介绍)

cnn最简单例子(CNN--简单入门介绍)卷积层顾名思义,是对输入图像或者输入对象所生成的像素矩阵进行卷积计算。这一层中的每个神经元只与前一层中有限数量的神经元相连层,那个它们所连接的神经元数目被称为卷积层的感受野。卷积计算的实现与卷积核密不可分。卷积核是一个权值矩阵,卷积计算就是将输入矩阵同卷积核的对应位置分别相乘再相加,将结果汇为单个输出像素值,重复这个过程直到遍历整张图像。每个卷积神经网络根据网络要求由不同数量的卷积层组成。第一卷积层负责学习诸如边、角等低级特征。这些层的输出通常被馈送到学习高级特征的其它卷积层。这一层中的每个神经元只与前一层中有限数量的神经元相连层。那个它们所连接的神经元数目被称为卷积层的感受野。2、卷积层图2.2.1 卷积神经网络结构图1、输入层输入层用3个维度表示,即宽度、长度和高度。它通常表示为宽度*高度*深度,这是以矩阵形式显示的图像的像素。例如。如果输入为(64x64x3),则宽度:64px,高度

卷积神经网络(Convolutional Neural Networks)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(Deep Learning)的代表算法之一,广泛应用于图像和视频识别、音频处理以及自然语言处理等各个领域。

卷积神经网络的产生主要是受到猫的视觉皮工作这一生物过程的启发。1969年,胡贝尔和威塞尔将大脑皮层中的细胞分为简单细胞、复杂细胞和超复杂细胞。其中这些复杂细胞被发现有一个感受野。感受野对刺激作出反应的区域面积大约是简单细胞的两倍大。卷积神经网络就是利用局部感受野来平铺覆盖整个视野区域,进而大幅度减少网络参数。20世纪80年代,受Hubel和Wiesel工作的启发,福岛邦彦将卷积过程引入CNN领域,命名为neocognitron。然而,是Yann Le Cunn发挥了主要作用,把CNN带到今天的水平,他开发了一个7层的卷积网络,称为LeNet-5,使用反向传播和自适应权值的各种参数。

卷积神经网络是以二维矩阵格式数据进行输入,其网络的各层都是二维阵列的形式处理数据,这样的形式刚好符合数字图像的二维矩阵格式,因此相比于传统的人工神经网络,卷积神经网络可以更快更好地将特征值从图像数据中提取出来。

卷积神经网络的结构和 BP 人工神经网络一样,是由一层层的结构组成,但是每一层的功能却不一样。卷积神经网络的基本结构主要有 :输入层(input layer),卷积层(convolution layer),池化层(pooling layer),输出层(output),其他的还可以有全连接层,归一化层之类的层结构。

cnn最简单例子(CNN--简单入门介绍)(1)

图2.2.1 卷积神经网络结构图

1、输入层

输入层用3个维度表示,即宽度、长度和高度。它通常表示为宽度*高度*深度,这是以矩阵形式显示的图像的像素。例如。如果输入为(64x64x3),则宽度:64px,高度:64px,深度:3px。深度主要用于以RGB的形式表示彩色图像。

2、卷积层

卷积层顾名思义,是对输入图像或者输入对象所生成的像素矩阵进行卷积计算。这一层中的每个神经元只与前一层中有限数量的神经元相连层,那个它们所连接的神经元数目被称为卷积层的感受野。卷积计算的实现与卷积核密不可分。卷积核是一个权值矩阵,卷积计算就是将输入矩阵同卷积核的对应位置分别相乘再相加,将结果汇为单个输出像素值,重复这个过程直到遍历整张图像。每个卷积神经网络根据网络要求由不同数量的卷积层组成。第一卷积层负责学习诸如边、角等低级特征。这些层的输出通常被馈送到学习高级特征的其它卷积层。这一层中的每个神经元只与前一层中有限数量的神经元相连层。那个它们所连接的神经元数目被称为卷积层的感受野。

通过卷积运算,原始信号特征增强,同时也降低了噪声,当卷积核不同时,提取到图像中的特征不同。由于图像具有多个特征,因此使用多个卷积核进行卷积时,用特征映射的深度(这是一个超参数),来表示使用的卷积核数量。

cnn最简单例子(CNN--简单入门介绍)(2)

图2.2.2 卷积运算示意图

3、池化层

利用池化层减小图像的空间大小或分辨率,以减少参数的数量,从而减少计算量。可以在一定程度上保证网络的特征被提取,同时运算量也大大降低,减少了网络结构过拟合的风险。它们通常在卷积层之间交替。最常见的池类型是最大池和平均池。

4、全连接层

全连接层一般跟在所有的卷积层和池化层之后,在输出层之前,作用是整合卷积层或者池化层中具有类别区分性的局部信息,对数据进行分类。

猜您喜欢: