卷积神经网络学习笔记(四)—— CNN细枝末节系列之特征图大小处理

pytorch中的2D卷积的函数是:

class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True)

Parameters:

  • in_channels(int) – 输入信号的通道
  • out_channels(int) – 卷积产生的通道
  • kerner_size(int or tuple) - 卷积核的尺寸
  • stride(int or tuple, optional) - 卷积步长
  • padding(int or tuple, optional) - 输入的每一条边补充0的层数
  • dilation(int or tuple, optional) – 卷积核元素之间的间距
  • groups(int, optional) – 从输入通道到输出通道的阻塞连接数
  • bias(bool, optional) - 如果bias=True,添加偏置
输出和权值的计算公式为:


1. 最基础的情况下:
# 定义一个输入,为了看起来方便,我们定义一个全为1的张量
input = autograd.Variable(torch.ones(1, 1, 5, 5))
>> tensor([[[[ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.]]]])
>> torch.Size([1, 1, 5, 5])

# 定义一个最基础的2D卷积,卷积核为3 * 3
CNN= nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3, stride=1, padding=0, bias=False)

# 为了直观,我们直接先设置卷积和,在实际使用时它是先随机初始化,然后再通过反向来得到
CNN_W = np.array([[1, 1, 1], [1, 1, 1], [1, 1, 1]], dtype='float32') 
# CNN的权值也是张量形式
CNN_W = CNN_W.reshape((1, 1, 3, 3))
CNN.weight.data = torch.from_numpy(CNN_W)

# 卷积计算
print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))
>> tensor([[[[ 1.,  1.,  1.],
          [ 1.,  1.,  1.],
          [ 1.,  1.,  1.]]]])

>> tensor([[[[ 9.,  9.,  9.],
          [ 9.,  9.,  9.],
          [ 9.,  9.,  9.]]]])
          
>> torch.Size([1, 1, 3, 3])


2. stride使得卷积核无法走遍整个图时:
# 修改上面的卷积的步数为3,此时,卷积核不能走遍整个图,所以,通过不使用padding时,会舍弃掉部分值
CNN= nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3, stride=3, padding=0, bias=False)

print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))

>> tensor([[[[ 1.,  1.,  1.],
          [ 1.,  1.,  1.],
          [ 1.,  1.,  1.]]]])

>> tensor([[[[ 9.]]]])
          
>> torch.Size([1, 1, 1, 1])


3. 使用padding时:
# 使用padding=1时,此时输入会在周围包上一层0,也就是原来5 * 5的矩阵变成7 * 7

CNN= nn.Conv2d(in_channels=1, out_channels=1, kernel_size=3, stride=3, padding=1, bias=False)

print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))

>> tensor([[[[ 1.,  1.,  1.],
          [ 1.,  1.,  1.],
          [ 1.,  1.,  1.]]]])

>> tensor([[[[ 4.,  6.],
          [ 6.,  9.]]]])
          
>> torch.Size([1, 1, 2, 2])


4. 输出通道数不设为1时:
# 使用out_channels =2时,此时其实就是初始化两个卷积核,这里我们不给它设值,直接让其随机初始化

CNN= nn.Conv2d(in_channels=1, out_channels=2, kernel_size=3, stride=3, padding=1, bias=False)

print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))

>> tensor([[[[-0.1465,  0.3027,  0.2025],
          [-0.0289, -0.0376,  0.2881],
          [-0.1316,  0.1987,  0.2249]]],


        [[[ 0.0905, -0.1791,  0.3059],
          [ 0.1897,  0.1662,  0.2220],
          [ 0.1330, -0.2048,  0.1505]]]])

>> tensor([[[[ 0.6741,  0.5137],
          [ 1.1793,  0.8724]],

         [[ 0.3340,  0.6567],
          [ 0.4608,  0.8740]]]])
          
>> torch.Size([1, 2, 2, 2])


5. 输入通道数不为1时:
input = autograd.Variable(torch.ones(1, 2, 5, 5))
print(input)
np.shape(input)

>> tensor([[[[ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.]],

         [[ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.]]]])
 
 >> torch.Size([1, 2, 5, 5])

# 使用in_channels =2时,其实此时也是随机初始化了两个卷积核对应两个通道,最后将结果相加
CNN= nn.Conv2d(in_channels=2, out_channels=1, kernel_size=3, stride=1, padding=0, bias=False)

# 为了直观,这里我们同样使用自己设的卷积核参数
CNN_W = np.array([[[1, 1, 1], [1, 1, 1], [1, 1, 1]],[[1, 1, 1], [1, 1, 1], [1, 1, 1]]], dtype='float32') 
# CNN的权值也是张量形式
CNN_W = CNN_W.reshape((1, 2, 3, 3))
CNN.weight.data = torch.from_numpy(CNN_W)

# 卷积计算过程
print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))

>> tensor([[[[ 1.,  1.,  1.],
          [ 1.,  1.,  1.],
          [ 1.,  1.,  1.]],

         [[ 1.,  1.,  1.],
          [ 1.,  1.,  1.],
          [ 1.,  1.,  1.]]]])

>> tensor([[[[ 18.,  18.,  18.],
          [ 18.,  18.,  18.],
          [ 18.,  18.,  18.]]]])
          
>> torch.Size([1, 1, 3, 3])


6. 输入个数不为1时:
input = autograd.Variable(torch.ones(2, 1, 5, 5))
print(input)
np.shape(input)

>> tensor([[[[ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.]]],


        [[[ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.],
          [ 1.,  1.,  1.,  1.,  1.]]]])
 
 >> torch.Size([2, 1, 5, 5])

# 此时卷积还是对应通道数,其实就是生成一个卷积核,去分别作用在两个对象上
CNN= nn.Conv2d(in_channels=1, out_channels=2, kernel_size=3, stride=1, padding=0, bias=False)


# 卷积计算过程
print(CNN.weight.data)
print(CNN(input))
np.shape(CNN(input))

tensor([[[[ 0.4774,  0.4774,  0.4774],
          [ 0.4774,  0.4774,  0.4774],
          [ 0.4774,  0.4774,  0.4774]]],


        [[[ 0.4774,  0.4774,  0.4774],
          [ 0.4774,  0.4774,  0.4774],
          [ 0.4774,  0.4774,  0.4774]]]])  
                  
>> torch.Size([2, 1, 3, 3])

至于dilation就是在卷积核里加0,解释上是说可以扩大感知:

dilation

可以参考:https://blog.csdn.net/cai13160674275/article/details/71155295

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容

  • 秋天到了,桂花开了。 整个金陵城就像一个天然的大香炉,空气中到处都燃着桂花沁人心脾的幽幽香气,而人们就快乐地行走在...
    小学生朱提提阅读 301评论 0 3
  • “哈佛大学心理学家提姆•利里首次前往墨西哥试用神圣蘑菇,之后表示他‘在食用神圣蘑菇五小时之后获得有关大脑的认知…超...
    咸叔说阅读 512评论 1 2
  • 这两天搭建了一个优雅智慧学习分享群,虽然过程有些质疑的声音,但是还是有很多朋友对情绪管理,女性礼仪,优雅智慧很感兴...
    Rachel_aa22阅读 121评论 1 2
  • 2017年4月9日晚23:20,我坐在床上奋笔疾书,想在第二天来临前完成自己的作业,有时候我真想就这样放弃了,因为...
    花儿夏阅读 160评论 5 1