吴恩达 Convolutional Neural Networks第二周笔记

学习目标
Understand multiple foundational papers of convolutional neural networks
Analyze the dimensionality reduction of a volume in a very deep network
Understand and Implement a Residual network
Build a deep neural network using Keras
Implement a skip-connection in your network
Clone a repository from github and use transfer learning

Case studies
classic networks:
lenet-5:用的是avg pool并没有用padding 有了现在的卷积神经网络的雏形。paper里面的实现是有non-linear在pooling之后.相比现在的cnn,参数量特别小,网络也简单。但是,也有相似之处,比如随着网络的加深,feature map size越来越小,channel越来越多。现在的话,是多个conv之后pool,他是一个conv,一个pool.论文中的实现是在pool后面加非线性,而且是sigmoid or tanh if read this paper ,only focus on 2 和 3 section



alexnet : input 227×227×3
similar to lenet 但是大很多 60 m parameters . 用的relu
论文上,由于当时的硬件限制,用的两个GPU,怎样在两个gpu联合训练,花了一些篇幅介绍
LRN 层 ,现在没怎么用,思想是在channel间做normalize ,但是似乎没什么效果



vgg-16: simplify architecture 非常的对称 也非常简单 quite uniform都是3×3 的filter,feature map 变成原来的一半,channel个数就变成原来的一倍 参数量 138million vgg-16用的多一些

读paper建议 alexnet-vgg-lenet lenet比较难一点 前两个自己都看过,有时间翻翻lenet

resnet:
address 梯度消失和梯度爆炸
之前的main path 就是一层连一层的的residual block: skip connection/short cut
copy 参数 from al,然后和zl+2 相加,最后 a(l+2) = g(al +z(l+2))



stack this block to 组建网络
plain network 随着网络加深,训练误差会先减小然后增加


why resnet work ?
其实在正则化后,一定程度上 a(l+2)是可以等于a(l)的,所以不会hurt 网络的 ability



Networks in Networks and 1x1 Convolutions
why 1x1 filter

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 马上,我就本命年了,古老的传说里讲,本命年可能会遇到一些不幸运的事情,而我的二十五岁将会发生什么我完全不...
    江小夏Jia阅读 129评论 0 0
  • 今年以来,岐山县公安局强力推进社区民警专职化,配齐配强社区警务专职力量,合理划分警务网格,力求“管得住、管...
    歧路无畏阅读 692评论 0 0
  • 很多年前喜欢写日记,那时青春年少,多愁善感,伤春悲秋,其实根本不懂何为悲喜。每一次的泪与笑似乎都是震感心灵...
    紫苏叶子妖阅读 219评论 0 0
  • 每去一个地方游玩 我都会特意去些小店淘几件当地特色的纪念品 因为旅游就意味着短暂与离去 总想用点什么东西来记住这段...
    米布私人档案馆阅读 665评论 0 0