LRN 和 BN 的区别 (补一个 LCN)

LRN 与 BN 的区别:

====

LRN

首先,我们知道 LRN 首先是在 AlexNet 中首先,被定义,它的目的在于卷积(即 Relu 激活函数出来之后的)值进行局部的归一化。这样说,可能不形象,现在用简单的数学以及图来进行说明:
这里我们用 机器视觉(即传入图片来训练CNN 网络进行简要的说明):
首先,我们传入一张RGB的图片,那么他的大小是 w * h * c 的大小【在代码中,它的输入模式还会加上 batch 变成 batch * w * h * c】,之后我们用 N 个卷积核【卷积核大小假设为 3 * 3 * c】对其进行操作,那么我们将会得到一个 batch * w * h * N 的一个输出【这里假设不进行卷积的下采样】。
之后,我们将我们的输出 batch * w * h * N 传给激活函数 Relu,之后进行 LRN 的操作。其实 LRN 的操作非常的简单,它是将 通道上该点的像素值走一个归一化处理。如下图所示:


它表示,对于该点,在全通道 N 中做一个归一化的处理,我们设 u,v 为该点的坐标位置,C 表示通道数目(即前面的N), c表示属于第几个通道位置(0 ~ C-1,数组形式),α,β,n是超参(一般来说 n 表示选取多少个通道层做一个归一化处理),K个人理解是为了防止分母为0的错误。
局部归一化的公式就可以写为:

举例(假设我们通过Relu层出来后的参数为如此):

然后现在,我们求 (u,v) = (0,0) , c = 1 处的局部归一化,设k = 1 , α = 1, β = 2 ,n = 2
可得:

BN

与 LRN 不同的是,BN的操作是在 Relu 层之前。大部分的博客中都认为,在DNN某一层,随着GD训练的过程中参数的改编,盖层的输出数据的分布可能会改变;此时,对于下一层,相当于输入数据的分布改变了,这种输入数据分布的改编,会使DNN难以学习到好的参数,从而影响DNN的效果。
BN 的训练步骤如下:


先对这个输入的Batch,进行一个 Z-Score 的比哦啊准话,其后设置 γ,β的参数,对已经标准化的值进行一个转换。
对于图像来说,假设传入m张图片。那么我们的矩阵大小就为 m * w * h * c ,假设我们有 N 个卷积核。(在不考虑下采样的过程中),我们理论上将会得到一个 m * w * h * N 的一个输出。我们将每一张图片在一个 x * x * c 的卷积核中就可以得到一个输出(feature map)。所以,我们可以将一个卷积后的 w * h看做是一个feature map,然后我们有m张图片,那么我们对于卷积核Ni { i | 0 <= i <= N-1 },每一个 Ni【即一个feature map】做一个归一化的操作,所以每一个卷积核对应的BN参数有 m * w * h 个,然后和 γ,β 一起保存。

P.S: LRN其实总的来说,是对于在通道数上(feature map上的某一个点位置)的一次局部归一化。而BN则是对于每一次输出的一个面(feature map)来进行归一化操作。

LCN

LCN (Local Contrast Normalization)局部对比度归一化层【简单来说,一般是对于每一个像素及其相邻的一个领域(local)进行一个归一化的操作】
local contract normalization这个归一化包括两个部分:局部做减和局部做除。对输入图像的每一个像素,我们计算其邻域(例如3x3窗口)的均值,然后每个像素先减去这个均值,再除以这个邻域窗口(例如3x3窗口)拉成的9维向量的欧几里德范数(如果这个范数大于1的时候才除:这个约束是为了保证归一化只作用于减少响应(除以大于1的数值变小),而不会加强响应(除以小于1的数值变大))。也有论文在计算均值和范数的时候,都加入了距离的影响,也就是距离离该窗口中心越远,影响越小,例如加个高斯权重窗口(空间上相邻的像素点的相关性随着距离变大而变小)。

参考资料:

  1. https://www.zhihu.com/question/19645541/answer/91694636
  2. http://shartoo.github.io/network-imageclassify/
  3. http://99aliyun.com/lrn%EF%BC%88local-response-normalization-%E5%B1%80%E9%83%A8%E5%93%8D%E5%BA%94%E6%A0%87%E5%87%86%E5%8C%96%EF%BC%89/
  4. https://zhuanlan.zhihu.com/p/26682707
  5. https://blog.csdn.net/Fate_fjh/article/details/53375881
  6. https://blog.csdn.net/baishuo8/article/details/81943844
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,133评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,682评论 3 390
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,784评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,508评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,603评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,607评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,604评论 3 415
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,359评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,805评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,121评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,280评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,959评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,588评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,206评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,442评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,193评论 2 367
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,144评论 2 352

推荐阅读更多精彩内容