陕西金顶建设公司网站,网站建设服务器都有哪些,泰安创意网络公司,品牌推广网站策划设计原文链接#xff1a;[1409.4842v1] Going Deeper with Convolutions (arxiv.org) 图源#xff1a;深入解读GoogLeNet网络结构#xff08;附代码实现#xff09;-CSDN博客 表截自原文
以下#x1f4d2;来自博客深入解读GoogLeNet网络结构#xff08;附代码实现#xff0…原文链接[1409.4842v1] Going Deeper with Convolutions (arxiv.org) 图源深入解读GoogLeNet网络结构附代码实现-CSDN博客 表截自原文
以下来自博客深入解读GoogLeNet网络结构附代码实现-CSDN博客
这个博主好厉害写的很详细
输入层224x224x3 卷积层conv 7×72S kernel size7×7 stride2 padding3 输出通道数64 (padding从哪儿看到的原文吗maybe 输出特征图尺寸(224-73*2)/21112.5向下取整112 (为啥是向下取整)对应于下面的池化层为啥是向上取整 输出特征图维度64112×112 池化层 上一层的输出64112×112 kernel_size3*3 stride2 padding呢 没说就是 padding0 输出特征图尺寸 64((112-32)/2)55.5(向上取整)56 ∴输出6456*56 相当于 56*56*64 局部响应归一化不晓得是个啥 LRN第一次在AlexNet中提出
Conv 1×11V
卷积网络学习心得
搞明白输入尺寸多大、操作kernel size、stride、padding、输出尺寸多大就可以的
输入56*56 *64
操作64kernel size1*1 *64 需要训练的参数量1*1*64*644096说参数 指的是需要学习的参数这个比较有趣吃饭前死活不明白还发呆走思吃完饭回来倒是明白了
输出6456*56 卷积层conv 3×31(S)
输入56*56*64
操作 192kernel_size3*3*64 stride 1 padding 1
输出192(56-31*2)19256*56
然后进行ReLU操作卷积以后非线性激活
参数量192*3*3*64110592 LRN
局部响应归一化的输入 操作 输出 是啥 MAXPool 3×32(S)
是不是一般来说padding不强调就是不填充 paddingvalid
输入19256*56 上一层的输出→56*56*192
操作192kernel_size3*3*192 stride2 padding0
输出19256-32/227.5 (向上取整)28 19228*28 Inception3a 输入19228*28 → 28*28*192
(从左往右数操作)(省略所有卷积操作后的ReLu操作)
操作1conv 1*1 1(S) 输入28*28*192 操作 kernel_size 641*1*192 padding0 stride1 参数量64*1*1*19212288 输出6428*28 汇总 池化层真的奇怪啊按理说池化层没有padding那么输出尺寸一定会减少的 参数量统计 1*1*192*6412288 1*1*192*963*3*96*128129024 1*1*192*1632*5*5*1615872 1*1*192*326144 12288129024158726144163328 163328/1024159.5K 原博的图也贴过来存档 这句话的理解对四个部分的输出结果的通道并联 Inception3b 上一层的输出25628*28 →这一层的输入 28*28*256
表格的读法
patch size不懂
stride明白
开始读
总的输出尺寸28*28*480网络的深度是2 (其实给出了 卷积核个数和总的输出尺寸 这个网络是很好读了
128个1*1的卷积 输出是 12828*28在3*3的卷积核之前的降维进行128个1*1的卷积 输出是12828*28对输出的特征图进行192个3*3的卷积 输出19228*28在进行5*5的卷积核之前的降维进行32个1*1的卷积输出是3228*28对输出的特征图进行96个5*5的卷积输出9628*28pool层使用3*3的卷积核输出28*28*256 why 哪里看出来Aget了pool层有padding和stride 通道数不会变 而且padding1进行64个1*1的卷积输出6428*28 由总的输出尺寸倒推这里的28*28
PS。忽然发现尺寸计算的一个东西 H-W2PS/S不管是填充还是步长都是在把输出图像变大蒽理论上是的诶反正我这么理解 Inception4a 读inception4a
总的输出尺寸 14*14*512进行192个1*1的卷积 输出14*14*192使用3*3的卷积核之前的降维进行96个1*1的卷积输出14*14*96进行208个3*3的卷积输出14*14*208使用5*5的卷积核之前的降维进行16个1*1的卷积输出14*14*16进行48个5*5的卷积输出14*14*48 (池化是啥样的)池化之后进行64个1*1的卷积输出14*14*64最后汇聚成512个通道
inception 4a、4b、4c 再看一遍这个图patch size还是不明白是什么 但是几个inception块应该是理解了 图源深入解读GoogLeNet网络结构附代码实现-CSDN博客 gpt说的 patch size就是kernel size 读第一个池化层 补充计算公式 最后的输出层 DepthConcat的输出是 7*7*1024也就是AvgPool的输入 这张图不懂。