[監督式]卷積神經網絡(CNN)

卷積神經網絡(Convolutional Neural Networks)

下面簡單比較一下DNN與CNN,Affine為全連接層。

DNN

CNN

仿射(Affine)的意思是前面一層中的每一個神經元都連接到當前層中的每一個神經元,ReLU層只是把做完convolution後的值都經過ReLU function,將0以下的值都轉為0。

卷積層(conv)

卷積運算

卷積運算是不需要固定輸入或輸出的,輸入不同尺寸的圖片不需要改變訓練的權重,但會產生不同尺寸的輸出,但如果後面接上Affine層那麼conv就必須固定輸出尺寸,也就必須固定輸入的圖片大小了。
雖然卷積運算是不需要固定輸入或輸出,但也不能輸入過大的輸入尺寸,需要考慮顯存夠不夠大,前向傳播會把計算結果存下來給反向傳播使用(float32的101281283輸入經過conv-->106464256這樣就佔了將近42M了,另外還要考慮weight、bias、grad、optimizers)。
若要接上Affine層又需要不同尺寸的圖片輸入,可以使用SPP(Spatial Pyramid Pooling 空間金字塔池化)。

  • filter
    CNN中input(image、Feature)也可稱作input feature map(輸入特徵圖),然後CNN的weight我們稱filter(濾鏡)或叫kernel,filter的大小(這邊是3x3)可以自己調整,經過運算輸出的我們可以稱作output feature map(輸出特徵圖)。

  • padding(填補)
    再進行conv或pooling之前我們常會進行padding處理,就是將input matrix外圍填上固定數值的資料,可以使做完conv或pooling的input輸出大小變大,避免做到最後input尺寸只剩下(1,1),padding是個可調參數。

    Theano文檔gif

  • stride(步幅)
    卷積運算時移動的幅度,stride是個可調參數,stride大於1是做下採樣(downsampling),小於1是做上採樣(upsampling)。

  • 運算步驟

  1. 我們將filter放置在input的左上角,每個filter與它對應到的input相乘後做加總,當作輸出Matrix的其中一個值。
  2. 然後做move,移動的大小稱為stride(步幅),先往左到底後退回最左再往下,依序執行直到filter移動到右下角。
  3. 換另外一個filter重複前兩步驟直到filter全部運算完成。

註:執行過Convolution後的output尺寸會變小,層數會等於filter數,例如input大小為(6,6),而filter大小為(3,3),則output大小為(4,4)。

Convolution與pooling都可以轉成col(im2col)優化運算

  • 應用到多維資料
    多維資料(如彩色圖片有3層),對應的filter也有相同層數,但最後output時,3個層每個對應的值需要做加總變成1層。

池化(pooling)

池化(pooling)有最大池化(max pooling)、最小池化(min pooling)、平均池化(average pooling)等,pooling的大小也是可以自己調整的,下面用max pooling作為例子。

CNN特性

CNN的學習出來每一層的濾鏡轉換成圖像可能會是紋理、邊界、結構等等

CNN共用權重(weight)減少參數

代表性架構

transpose convolution(轉置卷積)

up-convolution
  • 一般轉置卷積
    正常卷積中stride大於1時我們進行的是等距下採樣,會讓輸出的size比輸入小,而轉置卷積層我們就會用stride小於1的捲積進行上採樣,使輸出的size變大。

    正常卷積過程
    轉置卷積

  • 分數卷積(fractionally-strided convolution)
    我們在區塊間插入0,這樣使每次的stride相當於<1。

卷積尺寸計算

OH、OW(輸出高度及寬度),IH、IW(輸入高度及寬度),FH、FW(濾鏡寬度及高度),S(stride步數),P(padding尺寸)。
OH = \frac{IH+2P-FH}{S} + 1
OW =\frac{IW+2P-FW}{S} + 1

tensorflow算法

  • 卷積(conv):
    ceil為向上取整,dilation_rate默認1,padding為SAME才會做padding動作,為VALID時不padding。





  • 轉置卷積:
    padding為SAME會在區間插入0後做padding,為VALID時不不插入0直接做padding。
    而這裡的stride在實際進行時永遠為1,而參數的stride為正常卷積時的stride,是為了檢驗input與output的正確性,將輸入的output size與padding以及stride進行正常卷積運算後檢驗輸出是否為input size。





推薦閱讀:
https://zhuanlan.zhihu.com/p/50573160
https://ithelp.ithome.com.tw/articles/10188326?sc=pt
https://zhuanlan.zhihu.com/p/31988761

參考李宏毅老師ML課程

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,490评论 6 508
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,581评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 165,830评论 0 356
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,957评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,974评论 6 393
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,754评论 1 307
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,464评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,357评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,847评论 1 317
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,995评论 3 338
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,137评论 1 351
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,819评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,482评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,023评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,149评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,409评论 3 373
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,086评论 2 355

推荐阅读更多精彩内容