知名网站建设商家,绵阳做网站的公司,中国建设网建设通官方网站,河南阿里巴巴网站建设一、亮点 AlexNet、VGG都只有一个输出层。googlenet有三个#xff08;其中两个是辅助分类层#xff09;
二、先看看Inception结构
1、Inception
之前的网络#xff1a; AlexNet、VGG都是串行结构 Inception#xff1a; 并行结构 上一层的输出同时传入四个并行结构其中两个是辅助分类层
二、先看看Inception结构
1、Inception
之前的网络 AlexNet、VGG都是串行结构 Inception 并行结构 上一层的输出同时传入四个并行结构 得到四个特征矩阵 而后按深度进行拼接、得到输出层 注意每一个分支所得到的特征矩阵必须高纬度和宽维度相同
2、Inception降维 多了三个1×1的卷积层 起到降维作用
3、1×1的降维作用
不使用1×1卷积核降维参数计算量 使用1×1降维计算量
4、辅助分类器 第一层 平均池化下采样 池化核大小5×5、步长为3、 两个分类器分别来自4a和4d。长宽一样但深度不同一个512、一个528. 根据计算公式 其中输入为14、池化核大小为5、padding为0 步长为3 得结果14 因为池化不改变深度所以输出为14×14×512
第二层 使用128个卷积核大小为1×1进行降维、并使用ReLU 第三层 采用节点个数为1024的全连接层、同样使用ReLU。
第四层 使用drop out 以70的比例随机失活神经元 而后全连接层预测1000个类别 因为ImageNet有1000个类别
三、看googleNet详表 #n×n reduce代表 在n×n卷积层之前 加入一个降维处理的1×1卷积 对照 下图; 我们看到输入先是经过7×7/2的卷积、3×3/2的池化后 进入一个1×1的卷积和3×3的卷积 因此depth写了2
四、参数 模型参数少、准确率高 但是搭建太复杂了。
参考https://blog.csdn.net/m0_37867091/article/details/107404735