网络中的网络(NiN)

http://zh.d2l.ai/chapter_convolutional-modern/nin.html

GlobalAveragePooling2D output shape:         (1, 10)
Reshape output shape:        (1, 1, 1, 10)
Flatten output shape:        (1, 10)

既然GlobalAveragePooling2D 的 output shape已经是 (1, 10)了,为什么还要reshape再flatten呢?

LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。 AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 或者,可以想象在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全放弃表征的空间结构。 网络中的网络NiN )提供了一个非常简单的解决方案:在每个像素的通道上分别使用多层感知机 [Lin et al., 2013]

LeNet、AlexNet和VGG都有一个共同的设计模式:通过一系列的卷积层与汇聚层来提取空间结构特征;然后通过全连接层对特征的表征进行处理。
AlexNet和VGG对LeNet的改进主要在于如何扩大和加深这两个模块。 此外,我们可以设想在这个过程的早期使用全连接层。然而,如果使用了全连接层,可能会完全放弃表征的空间结构。 NiN提供了一个非常简单的解决方案:在像素的不同通道之间使用多层感知机 。
所谓1×1卷积不改变表征的空间结构,单纯对同一像素不同通道上的表征进行线性组合。这里提醒我们,之前的3×3卷积也实现了同一区域不同通道上的表征进行线性组合。NiN相比前三种网络的新奇之处在于把特征(表征)的线性组合可以提到网络的较浅层,现在只知道这个不同,分析不出来优劣。