产品经理也能动手实践的AI(八)- Resnet Unet GANS RNN

正文共: 2336字 22图

预计阅读时间: 6分钟

最后一节课了,很多更细致的内容会在part2展开,新的part2会在6月28号放出来,据说共7节,并且会有2节专门讲swift。

1.概览

  • 更细致的创建Databunch

  • 从头创建一个CNN

  • ResNet 

  • U-net

  • GAN

  • RNN


2.1 核心机器学习概念

  • 很多,但是都一笔带过,说在part2中详细讲解

2.2 FastAI

  • split_none:创建databunch的过程,不划分训练/验证组时也要进行这样一个文件转化

  • data.one_batch:获取一个batch的数据

2.3 Python

  • PIL/Pillow:Python Imaging Library

  • parallel:并行处理任务,可以变快


3.1 创建DataBunch详细讲解

共分4个步骤:创建图片合集、训练集划分、打标签、(图片变形)、创建数据集

3.2 从头创建一个卷积神经网络

初始图片是28x28的尺寸,因为stride是2,所以每一次Conv2d后尺寸就会缩小一倍,但是kernel有8个,所以输出的channel有8个。

最后Flatten将矩阵转化成一个10个数的vector,从而可以和结果0-9进行比对。

model = nn.Sequential(    nn.Conv2d(1, 8, kernel_size=3, stride=2, padding=1), # 14x14    nn.BatchNorm2d(8),    nn.ReLU(),    nn.Conv2d(8, 16, kernel_size=3, stride=2, padding=1), # 7x7    nn.BatchNorm2d(16),    nn.ReLU(),    nn.Conv2d(16, 32, kernel_size=3, stride=2, padding=1), # 4x4    nn.BatchNorm2d(32),    nn.ReLU(),    nn.Conv2d(32, 16, kernel_size=3, stride=2, padding=1), # 2x2    nn.BatchNorm2d(16),    nn.ReLU(),    nn.Conv2d(16, 10, kernel_size=3, stride=2, padding=1), # 1x1    nn.BatchNorm2d(10),    Flatten()     # remove (1,1) grid)


3.3 ResNet

是不是层越多,效果越好呢?实验证明并不是,但为什么呢?也许是方法不对,所以就发现了ResNet

这就是ResNet的核心,一个ResBlock的工作原理:2个卷积层之后,把结果和输入值相加

为什么ResNet的效果好,如下图y轴表示的是loss,ResNet可以更平滑的找到低点

近些年还流行一个DenseNet,适用于小规模数据/图像分割,可以达到更好的效果。而它和ResNet的唯一区别就是最后相加的时候,采取合并的方式,cat([x,x.orig])。


3.4 U-net

看形状就知道这是U-net,而且很容易看出分2部分,下降的部分和stride 2 的cnn一样,叫做encoder;

而上升的部分,叫decoder,类似于放大一张图,试想一下可以有几种方式:

更多细节请参考源代码

UnetBlock DynamicUnet

unet_learner


3.5 GAN

GAN的本质就是一个具备复杂的loss function的神经网络,本课讲解了这个loss fn是如何一步步进化的:

  1. MSE loss:只比较生成图像和目标图像每个像素点的MSE,能实现去水印的效果,但是并没有让图片变清晰

  2. Critic:增加一个评论家的角色,训练成可以鉴别清晰和模糊图像的神经网络,然后将区分效果作为loss,也就是越分不清哪张图是清晰的,loss就越低。所以这样图片就清晰了,但是动物的眼睛还是模糊的

  3. Feature loss/Perceptual loss:来衡量图片特征的接近程度,运用pytorch的hook函数,将训练过程中每个Activations的特征值存下来,进行比较

  4. GAN:将generator和critic整合到一起,相当于Generator每次输出图片,都用于critic的训练,而critic训练好的模型,可以作为generator的loss function

Crappify:把高质量图片处理成低质量图片(function)

Generator:目标是生成高质量图片(Model)

Critic:高低质量图片分类器(Model)


3.6 RNN 递归神经网络/循环神经网络

这里的例子是,根据一句话预测下一个单词。

先从一个最基本的神经网络开始,了解图形和箭头的含义

然后搭建一个最基本的原型,根据单词1,2,预测单词3

然后再下一步,根据单词123预测4

于是找到规律,根据n-1个单词,预测第n个单词

然后发现预测第n个词时,不用每次都把之前n-1个单词算一遍,他们有之前算过的,所以可以存下来,作为输入值,在下一次预测时会用到

于是生成了一个结构,每次输出前的Activation都可以作为下一次运算的输入值,就是有个递归关系的RNN

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 223,726评论 6 521
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 95,697评论 3 402
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 170,734评论 0 366
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 60,508评论 1 300
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 69,522评论 6 399
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 53,051评论 1 314
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 41,429评论 3 427
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 40,403评论 0 278
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,930评论 1 323
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,977评论 3 343
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 41,122评论 1 354
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,763评论 5 350
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,454评论 3 336
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,931评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 34,047评论 1 275
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,613评论 3 380
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 46,150评论 2 363

推荐阅读更多精彩内容