AI学习笔记1——CNN

卷积神经网络Q&A

  • Q1:传统的神经网络和卷积神经有什么区别,针对数据的差异解释一下?

    A:传统的结构化数据是把数据当成独立的数据处理的,而对于图像的\underline{\text{单个像素点事与其他像素点是有关联的.}}

  • Q2:为什么卷积神经网络多用3*3的卷积核?

    可以得到更多的特征,两个3*3的还能等效于5*5的卷积核,可以用来减少参数数量,加快训练过程(VGG模型14年告诉我们的)

  • Q3:填充(padding)的主要目的又是为了什么?

    如果不加填充的话,那么边缘像素只会被计算一次,导致边缘采样不是很完全

  • Q4:卷积核个数N、卷积核尺寸F_w * F_h、步长Stride、以及填充padding得到的下一层输入公式是什么?假设原先图像是C*W*H(通道*宽*高)

    W_{new} = \frac{W - F_w + 2Padding}{Stride} + 1
    H_{new} = \frac{H - F_h + 2Padding}{Stride} + 1

  • Q5:同一层为什么需要多个卷积核呢?

    目的是从多种角度去学习特征,好比是小学看立方体堆积从正面、上面以及侧面观察立方体一样,最后输入到全连接层,你需要那个自己学习权重自己取用

  • Q6:池化层的作用是干嘛呢?

    池化实际是下采样的一种方式,池化层的作用是用于压缩特征,类似于高像素图片压缩成低像素图片一样

  • Q7:为什么会采用最大池化MAXPOOLING 或者 AVG POOLING

    约定俗成会发现:好的特征会在学习迭代过程中越学习越好
    好比你们班的同学越学越好就可以代表你们班
    平均池化一般用于全局特征

  • Q7:为什么需要卷积?

    最重要的是去获取深层特征,随着深度增加,会从局部特征逐渐提取到全局特征,代价是深度意味着时间

  • Q8:经典网络模型ALEXNET

  • Q9:经典网络模型VGG

    实验正面随着maxpooling 损失了特征,那就使用加倍的卷积核,使之翻倍。(多次pooling下来剩下的都是精华,翻倍是使得精锐翻倍)

  • Q10:经典网络模型Resnet,它解决了随着深度增加,训练误差增加的问题。(源码分析第五期医学训练)

[

resnet.jpeg

]
通俗易懂的就是 打游戏BOSS前需要存档备份
x就是前面的备份 F是打boss函数,接受一个存档备份x的参数 (实际上x是第19层训练的结果,对比来看)
最后结果H(x)不会比x差,破罐子破摔,至少不必原来差
最终加x效果比加其他0.5x这种的要好
\underline{\text{Resnet的缺点在于:存储空间变大 你需要去备份x,这可能会导致显存使用翻倍}}
改进:yolo V7里面进行分支合并,分支越多速度越慢。推理的时候可以,但是训练的时候免不了

  • Q11:感受野,即原始区域中的一个点对应原来图像的一块区域,这个区域叫做感受野。用于证明多个小卷积可以组成一个大的卷积。所以为什么要使用感受野,为什么要堆叠小卷积?
    A:感受野越大越好,看到的信息更多。一方面是,参数少;另一方面,小卷积,卷积过程多,特征提取越来越细致,速度快(英伟达底层优化),非线性变化增多可以拟合跟复杂的模型。之所以增加非线性,在于每层卷积下都会有线性整流函数
  • 激活函数的作用不仅仅是增加非线性,同时也是筛选
  • 池化是下采样的一种方式,下采样是指特征浓缩变少,上采样是指特征翻倍,常用的上采样有反卷积在U-net网络模型中介绍
  • 11的卷积有通道调整的功能*
  • BN层的作用,是标准化,让特征分布更加稳定(坑+1)
  • NLP、OCR本质就是分类问题
y_label.data.view_as(output) 返回保证维度相同

卷积的写法conv2d(in_channel, out_channel= , kernel_size =, stride = , padding)


a[(1, 2), (2, 3) ,(3, 4)]
[tup[1] for i in a]
[tup[0]]

b[(1, 3, 4, 4), (2, 4, 5, 6)]

for a in b[1]
for a, b in zip(* b)
 

存放acc的计算,如何进行
对每个batch返回一个losses=[]

dataloader的使用方法:

batch_idx,(x, y) in enumerate(dataloader):
    如果你想对某个东西做输出 就可以用着个
    

(x, y) in dataloader

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 219,928评论 6 509
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 93,748评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,282评论 0 357
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,065评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,101评论 6 395
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,855评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,521评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,414评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,931评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,053评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,191评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,873评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,529评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,074评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,188评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,491评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,173评论 2 357

推荐阅读更多精彩内容