知行编程网知行编程网  2022-08-07 19:00 知行编程网 隐藏边栏 |   抢沙发  9 
文章评分 0 次,平均分 0.0

作者以抛球实验为例讲解了许多卷积的数学原理和机制,并通过卷积来表述卷积神经网络。文章附有大量图片解释,帮助大家更容易理解。

抛球实验 -- Ball drop experiment

想象一下,我们把一个球从某个高度落到地面上,它只有一个运动维度。如果你把球落下,然后再从它的落点上方把它落下,球会走一段距离  的可能性有多大?

我们来分析一下: 第一次下落后,它将以概率  落在离起点一个单位的地方,其中是概率分布。现在,在第一次落下之后,我们把球捡起来,从它第一次落地点以上的另一个高度落下。球从新的起点滚动  个单位的概率是 ,如果它是从不同的高度落下的,那么  可能是不同的概率分布。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

如果我们把第一次下落的结果固定下来,使我们知道球走了距离 ,对于球走的总距离 ,第二次下落时走的距离也固定为 ,即 。所以这种情况发生的概率简单来说就是 .。

我们用一个具体的离散例子来思考这个问题。我们希望总距离  为 3。如果它第一次滚动,,那么第二次必须滚动 ,才能达到我们的总距离 。这个概率是 。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

然而,这并不是我们可以达到总距离3的唯一方法。球可以第一次滚1个单位,第二次滚2个单位。或者第一次滚0个单位,第二次滚3个单位。它可以是任何  和 ,只要他们加起来是 3。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

如上图所示,其概率分别为  和 。

为了求出小球到达总  的总概率,我们不能只考虑到达  的一种可能方式,而是考虑将  分成  和  的所有可能方式,并将每种方式的概率相加。

我们已经知道, 的每一种情况的概率简单来说就是 .所以,将  的每一个解求和,我们可以将总似然表示为。

 和  的卷积,在  处被定义为。

如果我们把代入,我们得到。

为了使这一点更加具体,我们可以从球可能落地的位置来考虑。在第一次落地后,它将以概率 落在中间位置 。如果它落在  处,它落在  处的概率为 。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

为了得到卷积,我们需要考虑所有的中间位置。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

可视化卷积 -- Visualizing Convolutions

假设一个球落在离原点一定距离  的概率是。那么,它 从  处返回原点的的概率是。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

如果我们知道球在第二次落地后落在 处,那么第一次的位置是  的概率是多少?

如何透彻理解卷积的数据原理与机制:从抛球实验说起

所以,前一个位置是  的概率是 .

每个中间位置球最终落在  处的概率。我们知道第一个落点把球放到中间位置  的概率是 。我们还知道,如果它落在  处,它在  处的概率是 。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

将  的所有可能值相加,我们得到卷积结果。

通过移动下半部分,当分布对齐时,卷积达到峰值。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

并且随着分布之间的交点越来越小而缩小。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

下图,我们能够直观地看到三角波与方波函数的卷积。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

掌握了这个要点,很多概念变得更加直观。

在音频处理中有时会用到卷积。例如,人们可能会使用一个有两个尖峰,但其他地方都是零的函数来创建一个回声。当我们的双尖峰函数滑动时,一个尖峰首先击中一个时间点,将该信号添加到输出声音中,之后,另一个尖峰跟随,添加第二个延迟的副本。

高维卷积--Higher Dimensional Convolutions

卷积不仅仅适用于1维看空间,也适用于高维空间。

回顾开头的例子,落下的球。现在,当它落下时,它的位置不仅在一维中移动,而且在二维中移动。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

和前面的卷积一样。

只是,现在 , , 和  都是向量。更明确地说,

标准定义:

就像一维卷积一样,我们可以把二维卷积看成是把一个函数滑动到另一个函数之上,进行乘法和加法。

卷积神经网络--Convolutional Neural Networks

那么,卷积与卷积神经网络的关系如何呢?

在一个1维卷积层中,输入 ,输出 。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

从信号与系统的角度来描述,

 是输入信号,是输出信号, 是系统,这个系统由  个神经元组成,可以用输入来描述输出。

也可以用神经网络的方式来描述

  • 其中 是输入, 是权重。权重描述了神经元与输入的连接方式。
  • 负的权重意味着输入会抑制神经元发射,而正的权重则鼓励它发射。
  • 权重是神经元的心脏,控制着它的行为.如果说2个神经元是相同的,即它们的权重是相同的。

其中一个常见的应用是图像处理。我们可以把图像看作是二维函数。许多重要的图像变换都是卷积,你用一个非常小的局部函数(称为 "内核")对图像函数进行卷积。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

图像尺寸= 5(高度)x5(宽度)x1(通道数)

在上面的演示中,绿色部分类似于我们的 5x5x1 输入图像 。在卷积层的第一部分进行卷积操作的元素被称为Kernel/Filter, 用黄色表示。我们选择一个3x3x1矩阵作为Kernel。

Kernel 以一定的步伐向右移动,直到它解析出整行的宽度。接着,它以相同的步伐值跳到图像的开头(左边),并重复这个过程,直到遍历整个图像。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

在多通道图像的情况下( 如RGB ),Kernel 的深度与输入图像的深度相同。Kernel 与图片  进行矩阵乘法,然后将所有结果与偏置相加,得到一个单通道卷积特征输出。

卷积操作的目的是从输入图像中提取高级特征,如边缘。传统上,卷积层可以捕捉低级特征,如边缘、颜色、梯度方向等。随着层数的增加,架构也可以捕捉高阶特征,让我们的神经网络对图像有更深刻的理解.

该卷积有两种结果--一种是卷积特征与输入相比维度减少,有效填充(Valide Padding)。另一种是维度增加或保持不变,相同填充(Same Padding).

如何透彻理解卷积的数据原理与机制:从抛球实验说起

当我们将5x5x1的图像填充为6x6x1的图像,然后在其上应用3x3x1的核,我们发现卷积矩阵变成了5x5x1的尺寸。因此,我们将其命名为--相同填充(Same Padding)。

另一方面,如果我们在没有填充的情况下执行同样的操作,我们将得到一个具有内核(3x3x1)本身尺寸的矩阵--有效填充(Valide Padding)。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

池化层 -- Pooling Layer

与卷积层类似,Pooling层负责减少卷积特征的空间大小。这是为了通过降低维度来降低处理数据所需的计算能力。此外,它还有助于提取旋转和位置不变的主导特征,从而保持模型的有效训练过程。下图表示在5x5卷积特征上的3x3池化。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

有两种类型的池化。最大池化和平均池化。最大池化(Max Pooling)返回的是Kernel覆盖的图像部分的最大值。另一方面,平均池化(Average Pooling)返回Kernel覆盖的图像部分的所有值的平均值。

Max Pooling也是一种噪声抑制器。它完全丢弃了嘈杂的激活,并在降低维度的同时进行去噪。另一方面,Average Pooling只是作为噪声抑制机制进行维度降低。因此,我们可以说Max Pooling的性能比Average Pooling好很多。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

卷积层和池化层,共同构成了卷积神经网络的第层。根据图像的复杂程度,可以增加这些层的数量,以便进一步捕捉低层次的细节,但代价是增加计算能力。

在经历了上述过程后,我们已经成功地使模型理解了特征。接下来,我们要将最终的输出结果进行扁平化处理,并将其馈送到普通的神经网络中,以达到分类的目的。

全连接层(FC层) —- Fully Connected Layer (FC Layer)

全连接层正在学习该空间中可能的非线性函数。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

现在,我们已经将输入图像转换为适合多级感知器 (Multi-Level Perceptron) 的形式,我们将把图像扁平化(Flatten layer)为列向量。扁平化的输出被送入前馈神经网络,并在每次训练迭代中应用反向传播。在一系列的纪元中,该模型能够区分图像中的主导特征和某些低级特征,并使用Softmax分类方法对其进行分类。

如何透彻理解卷积的数据原理与机制:从抛球实验说起

总结 -- Conclusion

我们在这篇博文中介绍了很多数学机制,但我们获得的东西可能并不明显。卷积显然是概率论和计算机图形学中的一个有用工具,但是用卷积来表述卷积神经网络,我们获得了什么?

  • 第一个好处是,我们有了一些非常强大的语言来描述神经网络的层。卷积大大简化了繁琐的计算工作。
  • 其次,卷积非常容易实现。现存的许多库都提供了高效的卷积方法。
  • 此外,卷积看起来是一个 操作,但使用一些相当深刻的数学见解,可以创建一个  的实现。

本文为原创文章,版权归所有,欢迎分享本文,转载请保留出处!

知行编程网
知行编程网 关注:1    粉丝:1
这个人很懒,什么都没写

发表评论

表情 格式 链接 私密 签到
扫一扫二维码分享