GoogLeNet(Inception V1)论文学习记录

原文:Going deeper with convolutions

大赛往年冠军

GoogLeNet 在使用更深网络的同时,通过 1x1 卷积以及 Global Average Pooling尽可能的使模型的参数数量减少,主要考虑了未来在边缘设备中对于能耗和内存的考虑,较少的参数意味着更低的能耗和更少内存消耗。

Inception 模块的主要思想是将前层的 feature map 通过不同尺度的卷积核进行卷积(也可能是下采样),再将多路的输出汇总后作为当前层的输出发送给下一层:


完整网络结构

GoogLeNet

1x1 卷积

作用:

  1. 降维或升维
  2. 跨通道信息交融
  3. 减少参数量
  4. 增加模型深度,提高非线性表示能力

示意图如下:


1x1卷积核卷积过程

Global Average Pooling

针对每个通道求平均进行池化

Inception 模块

由多尺度的卷积处理 堆叠在一起。


原始版本和优化版本

后者通过 1x1 卷积进行升维和降维,能够有效地降低参数量。

用密集的模块去近似出局部最优的稀疏结构

Hebbian principle

赫布学习法则:'neurons that fire together, wire together'。神经元之间的突触“用进废退”

体系结构

GoogLeNet incarnation of the Inception architecture

辅助分类器

促进更快收敛,损失函数系数 0.3

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容