卷积公式 卷积公式的使用条件


卷积公式 卷积公式的使用条件





卷积神经网络是一种特殊的神经网络结构,是自动驾驶汽车、人脸识别系统等计算机视觉应用的基?。?其中基本的矩阵乘法运算被卷积运算取代 。它们专门处理具有网格状拓扑结构的数据 。例如,时间序列数据和图像数据可以看作是一个二维像素网格 。
历史卷积神经网络最初是由福岛核电站在1980年引入的,当时名为Neocognitron 。它的灵感来自于Hubel和Weisel提出的神经系统的层次模型 。但由于其复杂的无监督学习算法 , 即无监督学习,该模型并不受欢迎 。1989年,Yann LeCun利用反向传播和Neocognitron的概念提出了一种名为LeNet的架构,该架构被美国和欧洲用于手写的邮政编码识别 。邮政服务 。Yann LeCun进一步研究了这个项目,最终在1998年发布了LeNet-5——第一个引入了我们今天在CNN仍然使用的一些基本概念的现代卷积神经网络 。他还发布了MNIST手写数字数据集,这可能是机器学习中最著名的基准数据集 。在20世纪90年代,计算机视觉领域转移了它的焦点 , 许多研究人员停止了对CNN架构的研究 。神经网络的研究经历了一个寒冷的冬天,直到2012年,多伦多大学的一组研究人员在著名的ImageNet挑战赛中进入了一个基于CNN的模型(AlexNet),最终以16.4%的错误率赢得了比赛 。此后 , 卷积神经网络不断向前发展,基于CNN的体系结构不断赢得ImageNet, 2015年,基于卷积神经网络的体系结构ResNet的误差率超过人类水平的5.1%,误差率为3.57% 。
卷积的误称在CNN中广泛使用的卷积运算是用词不当的 。严格地说 , 所使用的操作是相关 , 而不是卷积 。这两个操作符都有一点不同,我们将分别讨论它们,以理解它们之间的区别 。
互相关相关是在图像上移动滤波掩码(通常称为核)并计算每个位置的乘积和的过程 。相关是滤波器位移的函数 。换句话说,相关的第一个值对应滤波器的零位移 , 第二个值对应一个位移,以此类推 。


数学公式:
图3给出了使用F滤波器与图像I的一维互相关运算的数学公式 。假设F具有奇数个元素会很方便,因此我们可以假设F随其中心移动 。我们说F有2N+1的元素,这些索引从-N到N,F(0)是中心元素 。

类似地,我们可以将这个概念扩展到下图所示的2d情况 。基本思想是一样的,除了图像和滤波器现在是2D 。我们可以假设我们的滤波器有奇数个元素,所以它由一个(2N+1)x(2N+1)矩阵表示 。

二维的相关运算非常简单 。我们只是取一个给定大小的滤波器,然后把它放在与滤波器大小相同的图像的一个局部区域上 。我们继续这个操作,在整个图像中移动相同的滤波器 。这也帮助我们实现了两个非常受欢迎的属性:
平移不变性:我们的视觉系统应该感知、响应或检测相同的物体 , 而不管它出现在图像的什么地方 。局部性:我们的视觉系统聚焦于局部区域,而不考虑图像的其他部分发生了什么 。互相关函数具有一个特性,当它应用于离散的单位脉冲(一个二维矩阵,其中只有一个1,其他都是0)时,得到的结果是滤波器的副本 , 但旋转了180度 。

推荐阅读