图像检测之图像分类(上)

图片分类

判断图片中是否有某个物体:一个图片对应一个标签,性能指标:前一中一或者前五中一。


卷积神经网络(CNN)

    基础神经网络:神经元,输入向量x,权重向量w,偏置标量b,激活函数sigmoid。

基础神经网络

    浅网络:3~5层(只要层数足够深,能够拟合出任意函数),优化:梯度(导数)下降,BP后向传播(链式规则)

        梯度下降优化:交叉熵     C=-\frac{1}{n}\sum_{x}\sum_{j}[y_{j}\ln a_{j}^L+(1-y_{j}\ln (1- a_{j}^L) ) ] (a为神经网络的实际输出)

                                 批量梯度下降:基于所有数据集

                                 随机梯度下降:学习率/步长,扰动->动量算法(momentum)

    

    构建CNN的基本层

        卷积层    /    激活函数

        池化层    /    平均池化    /    最大池化

        全连接层

        批归一化层


        CNN卷积层

            3通道(RGB)输入图片->3Dtensor

            

图片

            CNN卷积

                3D滤波器/卷积核

                    以扫描窗的形式,对图像做卷积

                    每层含有多个核,每个核对应一个输出通道

                    提取局部特征

                    权重参数需要自学习

卷积

                    非线性激活函数

                        sigmoid函数

                        ReLU函数(分段线性函数,无饱和问题,可以明显减轻梯度消失问题,深度网络能够进行优化的关键)

                    组合简例

                        卷积步长大于1,有降维作用。

卷积

                CNN池化层

                    作用:特征融合/将维

                    无参数需要学习

                    超参数(尺寸/步长/计算类别:最大化池化/平均池化)

                    

池化

                CNN全连接层

                    作用:推理器,分类器(卷积层用来提取数字特征,层数越深,语义越高)

                    普通神经网络/全局感受野/去除空间信息/需要学习参数/等效于全局卷积。

                    全连接层整合卷积层的所有特征输出为1*k的矩阵

            

                CNN——Softmax层:

                    指归一化函数:将一个实数值向量压缩到(0,1)所有元素和为1,最后一个全连接层对接1000-way的softmax层,得出1000类标签的概率值。取log值后,用于构建loss

                

归一化函数


                工程技巧

                    图像像素中心化:(减去各自通道的均值)

                    防过拟合,提高泛化能力:数组增强*10,256*256中提取中心和四角的224*224子图片*5,水平翻转*2。

                                                                Dropout随机失活,训练中随机让一些神经元的输出设为0,失活率0.5(一般在全连接层使用)。

                                                                 weight decay权重衰减(L2正则)C=C_{0}+\frac{\lambda }{2n}\sum_{w}w^2


AlexNet网络(标志着DNN深度学习革命的开始)

        5个卷积层+3个全连接层,60M个参数+650K个神经元,2个分组->2个GPU(训练时长一周,50x加速)。

        新技术:ReLU非线性激活,Max pooling池化,Dropout regularization

        

AlexNet网络

AlexNet网络

    局部响应归一化(LRN)模拟神经元的侧抑制机制,某个位置(x,y)上夸通道方向上的归一化,n为领域值,N为通道数,超参数K=2,n=5,\alpha =0.0001,\beta =0.75

局部响应归一化函数


局部响应归一化示意


AlexNet网络

        

VGG网络:一个大卷积核分解成连续多个小卷积核,核分解:7*7核->3个3*3核(由ReLU连接),参数数量49C^2
->27
C^2
,可以减少参数,降低计算,增加深度,继承了AlexNet结构特点:简单,有效。网络改造的首选基础网络。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 217,657评论 6 505
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,889评论 3 394
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,057评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,509评论 1 293
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,562评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,443评论 1 302
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,251评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,129评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,561评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,779评论 3 335
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,902评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,621评论 5 345
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,220评论 3 328
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,838评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,971评论 1 269
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,025评论 2 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,843评论 2 354

推荐阅读更多精彩内容