其中 表示第 个通道的第 个像素点的输出, 表示总的通道数, 表示归一化的范围,、、、 是超参数,本文中取、、、。
最大池化:池化窗口大小为 3x3,步长为 2,每组输出为 27x27x48。
卷积(5x5)–>ReLU–>局部响应归一化(LRN)–>最大池化
卷积(5x5):卷积核大小为 5x5,步长为 1,padding 为 2,每组输出通道数为 128,即每组输出为 27x27x128 的特征图。
ReLU:ReLU 激活函数,即。
局部响应归一化(LRN):、、、。
最大池化:池化窗口大小为 3x3,步长为 2,每组输出为 13x13x128。
卷积(3x3)–>ReLU
卷积(3x3):卷积核大小为 3x3,步长为 1,padding 为 1,每组输出通道数为 192,即每组输出为 13x13x192 的特征图。
ReLU:ReLU 激活函数,即。
卷积(3x3)–>ReLU
卷积(3x3):卷积核大小为 3x3,步长为 1,padding 为 1,每组输出通道数为 192,即每组输出为 13x13x192 的特征图。
ReLU:ReLU 激活函数,即。
卷积(3x3)–>ReLU–>最大池化
卷积(3x3):卷积核大小为 3x3,步长为 1,padding 为 1,每组输出通道数为 128,即每组输出为 13x13x128 的特征图。
ReLU:ReLU 激活函数,即。
最大池化:池化窗口大小为 3x3,步长为 2,每组输出为 6x6x128。
全连接(卷积)–>ReLU–>Dropout
全连接(卷积):输入为 6x6x256,使用 4096 个 6×6×256 的卷积核进行卷积,效果等同于全连接,即输出为 1x1x4096。
ReLU:ReLU 激活函数,即。
Dropout:在训练过程中,随机将一些神经元的输出置为 0。
全连接(卷积)–>ReLU–>Dropout
全连接(卷积):输入为 1x1x4096,输出也为 1x1x4096。
ReLU:ReLU 激活函数,即。
Dropout:在训练过程中,随机将一些神经元的输出置为 0。
全连接(卷积)–>Softmax
全连接(卷积):输入为 1x1x4096,输出为 1x1x1000。
Softmax:将输出转化为概率分布。