前几篇接触了关于神经网络的学习方法,总结起来的要点有以下几点:
1,BP算法
2,激励函数
3,正则化与交叉验证等其他防止过拟合的方法
BP神经网络在之前的工作中取到了不错的效果,但是在Micheal Nilson的数的第五章,描述了之前的神经网络在增加多个隐含层之后训练效果会大大下降,也就是说,对于层数过多的网络训练效果不理想,如何训练深层的神经网络成了一个问题,这就是深度学习的由来
深度学习近些年来很火,尤其是在自然语言处理领域,其取得的成就也是巨大的。之前我对深度学习是有畏惧心理的,因为我觉得挺难的,后来慢慢接触,发现这个也是一个循序渐进的过程,还是要有信心。
深度学习一个最广泛的应用就是卷积神经网络(deep convolutional neural networks),也就是CNN。这篇文章就简要说一下CNN模型的基本模型。
回到正题:Introducing convolutional networks
还是以之前的手写数字识别为基本,阐述CNN。
好的,回到CNN主题。
首先从之前的BP神经网络慢慢过渡到CNN,回顾之前的手写识别问题,我们识别一副28*28的手写图片,我们将图片转换成像素,然后手写黑色点得像素点标注为1,其他空白的像素标注为0,因此形成了28*28个BP神经网络输入层,然后我们设计了一个30个神经元的中间层,以及最后的10个神经元的输入层,其典型结构如下:
但是当我们想在这个模型上加了隐藏层层数的时候,其训练结果就出现了很大的不稳定,在加入多个隐藏层之后需要学习的参数变得很多,这一方面增加了训练的难度,也增加了训练的不稳定性,在传统的神经网络模型中,难以对深层的网络进行训练,这就形成了一个瓶颈。
因此需要一些新的模型,CNN就是这样的新的模型。
卷积神经网络的基本思想有以下三点:
1. local receptive fields
2. shared weights
3. pooling
英文的名称总是感觉不太好翻译成中文,索性就不翻译了,之后会介绍这些到底是什么东西。
首先我们看一下什么是 local receptive fields
在之前介绍的神经网络中,每个层的神经元总是与前面一层的所有神经元相连,也就是全相连,回想之前的BP神经网络,在隐藏层的神经元每个都和输入层的28*28个直接相连,也就是说每个盛景园需要训练 28*28+1个参数,但是在CNN中,隐藏层的神经元并不一定会和之前的所有神经元相连,以手写数字识别为例,每个隐藏层的神经元都会和输入层的部分神经元相连,如下图:
已上图为例,隐藏层的神经元与输入层的5*5个神经元相连,而这个5*5的区域就称之为Local Receptive Fields,在上图的隐藏层神经元中,需要训练5*5+1个参数,也就是5*5个与上面映射区域的权重因子和一个偏移量biase。然后我们将上图的5*5大小的窗口从上图的左上角,按照从左到右,从上到下的规则逐渐移动到右下角,每次移动一个像素点(这个是举例,实际上可以改变这个值),因此我们可以得到如下的图:
如上图所示的移动方法,我们可以很顺利的推出,隐藏层的结果是24*24个神经元(按照窗口移动法则)
明白了这点,我们就可以来了解shared weights and biases概念了
shared weights and biases:
前面说到过,在隐藏层的每个神经元都是有5*5+1个参数,也就是25个权重w和一个偏移量b,但是之前没有提到的是,在这个隐藏层中,所有的神经元的参数的值都是一样的,也就是说,对于隐藏层的所有神经元,其输出都是满足下面的条件:
只不过,每个神经元对应的映射区域不一样,也就是说上式的a值不同而已。注意上面式子的大括号左边表示的是激励函数,比如我们前面用到过的sigmoid函数。
为什么这样设计是有意义的,可以用一个简单的比喻说明:一个猫的图片的其中一个部分和其他的部分都是猫的一部分,也就是说都是猫的特征,因此这两个部分的特征值(w,b)设置成一样的。
也是这样,有时候,我们将从输入层到隐藏层的映射称之为 feature map(特征映射)。shared weights 和bias经常被说成是 内核(kernel)或者过滤器(filter)。
实际应用中,我们可能会不只一个feature map,可能会有多个,如下图所示:
上图就展示了从输入层到隐藏层的三个feature map,每个map都有5*5+1个的训练特征,注意每一个map上的神经元的w和b是一样的,但是不通过的map之间则不一定(一般不一样)
采用相同的w和b的好处是大大减少了训练的参数的个数,对于28*28的图像识别问题,我们假设隐藏层有20个map,那么会有(5*5+1)*20个参数,对比之前的20个神经元隐藏层的30*(28*28+1)个参数,可以看出来参数是大大减小了。
最后来看 pooling layer
pooling layer一般在卷基层后面(卷基层对应上面的隐藏层),该层的目的是为了简化卷基层的训练输出数据。形象的说,pooling layer就是将卷基层进行压缩一下,举个例子,pooling layer的一个神经元可以对应卷积层的2*2区域的概括,具体的说,以最常用max pooling为例,在max pooling中,pooling层的每一个神经元的值对应卷积层的2*2的区域的最大输出值,如下图所示:
在24*24的卷积层压缩之后,在pooling就只有12*12大小了。上文说过,卷积层的个数可能不止一个,因此一般会有下面的结构:
当然不止是max pooling一种技术用在了pooling layer,比如还有一种叫 L2 pooling的技术:其方法是取卷积层2*2区域输出值的和值的开根号值,诸如此类。需要说明的是一直说的2*2区域只是为了描述随便选的,并不是一定是2*2区域。
好了,现在可以将上面的所有元素组成一个整体了.我们可以使用下面的CNN网络模型:
得到了模型,我们还是可以按照之前的梯度下降方法来求参数值,会在后面的学习中跟进这个部分。
上图的最后一层是输出层,也就是手写识别的10个数字,需要说明的是这个输出层和pooling层是全连接的,也就是说,输出层的每个神经元都是和pooling层的所有神经元相连的。可以在中间多加几个卷积层和pooling层。
这些是CNN的基本模型,而且也只是以单个卷积层和pooling层为例,实际中可能会有多个卷积层,而且对应的全连接情况也是变化很多,比如我们我可在输出层之前再加一个全连接层。变化很多,因此这里只是简单的描述一下概念,后面会对CNN有更加深入的探讨。
相关推荐
卷积神经网络(Convolutional Neural Network,简称CNN)是一种深度学习模型,它在图像和视频识别、图像分类以及与图像相关的其他领域表现出色。CNN的设计灵感来源于生物的视觉皮层机制,特别是人类大脑如何处理视觉...
在本项目中,我们探索了如何使用Python进行深度学习,特别是通过卷积神经网络(CNN)来识别手写数字。这个任务是基于经典的MNIST数据集,它包含大量的手写数字图片,是许多机器学习和深度学习教程的首选示例。 **...
学习深度学习的一个重要步骤是理解模型是如何从数据中学习的。一般来说,模型的学习是通过在大规模数据集上进行迭代训练,不断优化模型参数来实现的。数据集的多样性和模型的复杂度决定了模型学习的深度和广度,这也...
该方法结合钻井现场数据特点,提出了一种基于CNN-LSTM融合网络的溢流工况预测深度学习方法。该方法可以实现在钻井现场数据特点的溢流预测,提高了溢流预测的准确性和效率。 深度学习方法在溢流预测中的应用: 溢流...
卷积神经网络(Convolutional Neural Network,简称CNN)是深度学习领域中至关重要的一种神经网络模型,主要用于图像处理、计算机视觉、语音识别和自然语言处理等多个领域。CNN的设计灵感来源于生物视觉系统的结构,...
本资源包“深度学习+CNN卷积神经网络+人脸识别+技术教程:CNN卷积神经网络应用于人脸识别(带详细流程+代码实现)”提供了一个全面的技术指南,用于教授和实现使用卷积神经网络(CNN)进行人脸识别的技术。...
卷积神经网络(CNN,Convolutional Neural Network)是一种在图像识别、计算机视觉等领域广泛应用的深度学习模型。本文将深入探讨如何使用Matlab R2019a中的深度学习工具箱来实现一维数据分类和二维CNN。我们将主要...
《图解深度学习与神经网络:从张量到TensorFlow实现》是一本专为初学者设计的深度学习入门书籍,作者张平通过深入浅出的方式介绍了神经网络和深度学习的基本概念以及TensorFlow的使用。这本书特别关注于帮助读者理解...
1.领域:matlab,语音MFCC特征提取,CNN深度学习训练实现语音识别 2.内容:语音MFCC特征提取并通过CNN深度学习训练实现语音识别+matlab操作视频 3.用处:用于语音MFCC特征提取,CNN深度学习训练实现语音识别算法...
在本项目中,我们探讨了如何利用深度学习技术,特别是卷积神经网络(CNN)与注意力机制(CBAM),来实现心律失常的二分类任务。心律失常是心脏疾病的一种常见表现,准确识别并及时处理对于患者的生命安全至关重要。...
CNN(卷积神经网络)是一种专门用于处理图像数据的深度学习模型,其核心在于卷积层和池化层。在人脸识别中,CNN可以自动学习和提取人脸图像的特征,如边缘、纹理和形状,形成高维特征向量。多层CNN能捕获不同层次的...
卷积神经网络(CNN)是深度学习中的一种特殊类型的神经网络,尤其适用于图像处理和计算机视觉任务。CNN的特点在于其卷积层和池化层,这两个组件让网络能够识别图像中的局部特征并进行下采样。卷积层通过共享权重的...
**FPGA CNN——基于FPGA的深度学习网络移植** 在当前的计算机视觉和人工智能领域,深度学习,尤其是卷积神经网络(CNN),已经成为图像识别、语音处理和自动驾驶等任务的核心技术。然而,随着模型复杂度的增加,...
深度学习CNN算法原理是神经网络中的一种前馈神经网络,通常包含数据输入层、卷积计算层、ReLU激活层、池化层、全连接层(INPUT-CONV-RELU-POOL-FC)。卷积神经网络(CNN)是一种前馈神经网络,通过卷积运算来代替...
深度学习是一种人工智能领域的核心技术,它基于神经网络模型,特别是针对图像、语音和自然语言处理等复杂数据模式识别问题。在本资源中,我们关注的是卷积神经网络(Convolutional Neural Networks,简称CNN),它是...
RNN-LSTM(循环神经网络-长短期记忆网络)是一种在序列数据处理中表现出色的深度学习模型,特别擅长于处理和预测时间序列数据。卷积神经网络(CNN)则在图像识别和处理领域有着广泛的应用,以其局部感受野和权重共享...
易康eCognition深度学习教程,包含可运行的规则集(样本制作、模型训练、模型应用、精度评价)、实验数据、PDF英文教程。易康的版本要在9.3以上,没有正版软件的可以去官网上免费申请试用版,试用版结果不可导出,...
【CNN深度学习识别字符matlab】是一个利用卷积神经网络(Convolutional Neural Network, CNN)技术在MATLAB环境中实现字符识别的项目。这个项目旨在帮助用户理解和应用深度学习技术,特别是CNN,来解决图像识别问题...
基于CNN深度学习的遥感landsat影像地物分类方法python源码+项目说明.zip 基于CNN深度学习的遥感landsat影像地物分类方法python源码+项目说明.zip 基于CNN深度学习的遥感landsat影像地物分类方法python源码+项目说明....