Feature map的理解
在cnn的每个卷积层,数据都是以三维的形式存在的。因此就可以将其看成是许多个二维的面叠在一起,而其中的每一个面,都称作一个feature map。
例如上图中的A0层,数据可以表示为一个8*8*3的三维矩阵,也可以看作是3个8*8的二维矩阵叠在一起,即feature map是3。
Feature map的生成
以图片为对象的输入层为例,如果是一张黑白图片,即每一个像素点都只有灰度一个指标,那就可以看成只有一个feature map,如果是彩色图片,即每个像素都需要使用RGB三个通道的亮度值来表示颜色,则可以看成具有3个feature map。
上图即输入一个6*6像素的彩色RGB图片,数据规模是6*6*3,feature map是3,分别做两次3*3的卷积操作。输入层和卷积层之间会有若干个卷积核(filters)也称为过滤器。
上层的每个feature map跟一个卷积核做卷积操作,都会在下层产生一个feature map。
由此可得,有N个卷积核,下层就会产生N个feature map。在上图中,下层有3个feature map,因此卷积核(filters)的数量就是3。
在深度学习中,卷积核(filters)的数量是由网络模型指定的,确定好一个合适的filters对于模型正确提取和表达特征至关重要。
多个feature map的作用
多个feature map即上段的多个卷积核(filters)。在卷积神