01 卷积运算张量维度问题

  • 16个batch,3个颜色通道,高224,宽224,则张量维度为[16,3,224,224],经过32个3×3的卷积核的计算,张量维度变为[16,32,222,222],在计算过程中,颜色通道消失了,是如何处理的,如果是黑白图片,维度为[16,1,224,224],经过上述计算同样得到[16,32,222,222]。计算后的维度是[16,3,32,222,222]是否更合理?
计算原理(参考:https://www.cnblogs.com/huangtao36/p/7818072.html
image

动态过程:

image

滤波器(过滤器:filter)的权值是根据你要检测的特征来决定的,在深度学习中,也即是要经过训练得到。检测的特征不同,权值就不一样。

如上单层的图像一般表示的是灰白图,既是没有颜色的,有颜色的RGB图像,会包含三个相同大小的图层,这时对应的滤波器也要变成三层,滤波器的层数(通道数)必须时刻与图像层数保持一致。。。

image

注意输出的是一个单层图

image

因为当一个三通道的过滤器与图像进行卷积时,是直接对27个数去加权计算它们的和得到一个结果,而不是分层计算。

问题:假设16个[3,3]卷积核进行计算,实际卷积核是[3,3,3],计算得到的结果是[1]。pytorch中的conv2d卷积核实际上是3D的,conv3d卷积核是4D的。
import torch
from torch import nn
from torch.nn import functional as F

class Lenet5(nn.Module):
    def __init__(self):
        super(Lenet5,self).__init__()

        self.conv_unit = nn.Sequential(
            nn.Conv2d(3, 6, kernel_size=5, stride=1, padding=0,bias=False),
            # x: [b, 3, 224, 224] --> [b, 6,220,220 ]
            nn.AvgPool2d(kernel_size=2, stride=2, padding=0),
            # [b, 6,220,220 ] => [b, 6, 110, 110]
            nn.Conv2d(6, 16, kernel_size=5, stride=1, padding=0),
            # [b, 6, 110, 110] => [b,16,106, 106]
            nn.AvgPool2d(kernel_size=2, stride=2, padding=0),
            # [b,16,106, 106]  => [b, 16, 53, 53]
        )
        # flatten
        # fc unit
        self.fc_unit = nn.Sequential(
            nn.Linear(16*53*53,1200),
            nn.ReLU(),
            nn.Linear(1200,84),
            nn.Linear(84,7), )

        # use Cross Entropy Loss
        #self.criteon = nn.MSELoss()
        #self.criteon = nn.CrossEntropyLoss()
    def forward(self, x):
        batch_size = x.size(0)  # x.shape[0]
        # [b, 3, 32, 32]  => [b, 16, 5, 5]
        x = self.conv_unit(x)
        # [b, 16, 5, 5] => [b, 16*5*5]
        x = x.view(batch_size, -1)  # x = x.view(batch_size, 16*5*5)
        # [b, 16*5*5] => [b, 10]
        logits = self.fc_unit(x)
        #loss = self.criteon(logits, y)
        return logits
    def initialize_weights(self):
        for m in self.modules():
            if isinstance(m, nn.Conv2d):                nn.init.xavier_normal_(m.weight.data)
                if m.bias is not None:
                    m.bias.data.zero_()
            elif isinstance(m, nn.BatchNorm2d):
                m.weight.data.fill_(1)
                m.bias.data.zero_()
            elif isinstance(m, nn.Linear):
                nn.init.normal_(m.weight.data, 0, 0.1)
                m.bias.data.zero_()
def main():
    net = Lenet5()

    # [b, 3, 32, 32]
    tmp = torch.rand(2, 3, 224, 224)
    out = net(tmp)
    # [b,16,5,5]
    print('lenet out:', out.shape)

if __name__ == '__main__':
    main()
import torch
import torch.nn as nn
from Resnetis import ResNet18
from lenet5is import Lenet5
from torchsummary import summary
net = Lenet5()
net.initialize_weights()
s = net.parameters()
for i in s:
    print(i.shape)      # torch.Size([6, 3, 5, 5])
    break
summary(net, input_size=(3,224,224),device='cpu')
torch.Size([6, 3, 5, 5])
----------------------------------------------------------------
        Layer (type)               Output Shape         Param #
================================================================
            Conv2d-1          [-1, 6, 220, 220]             450
         AvgPool2d-2          [-1, 6, 110, 110]               0
            Conv2d-3         [-1, 16, 106, 106]           2,416
         AvgPool2d-4           [-1, 16, 53, 53]               0
            Linear-5                 [-1, 1200]      53,934,000
              ReLU-6                 [-1, 1200]               0
            Linear-7                   [-1, 84]         100,884
            Linear-8                    [-1, 7]             595
================================================================
Total params: 54,038,345
Trainable params: 54,038,345
Non-trainable params: 0
----------------------------------------------------------------
Input size (MB): 0.57
Forward/backward pass size (MB): 4.50
Params size (MB): 206.14
Estimated Total Size (MB): 211.22
----------------------------------------------------------------
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 218,525评论 6 507
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,203评论 3 395
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 164,862评论 0 354
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,728评论 1 294
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,743评论 6 392
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,590评论 1 305
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,330评论 3 418
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,244评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,693评论 1 314
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,885评论 3 336
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,001评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,723评论 5 346
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,343评论 3 330
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,919评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,042评论 1 270
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,191评论 3 370
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,955评论 2 355

推荐阅读更多精彩内容