Keras自定义网络层(源码阅读)

Keras为我们提供了很多已经定义好的网络,比如Embdding层,LSTM层,GRU等。但是在有些情况下,这些预先定义好的网络层并不能很好的满足我们的需求,这个时候我们就需要自定义网络层。

当然,通过线上,我们可以很方便的查阅到大把资料关于使用keras定义自己的网络层,很多blog都直入主题,直接告诉我们自定义layer需要涉及到三个方法---------build(),call(),以及compute_output_shape(),处理好这几个方法,我们便可以实现我们所需要的功能。但是知其然也要知其所以然,因而今天我们通过阅读keras/engine/base_layer中的Layer类,来更好的理解整个网络层的运行过程。

pic1

上面我将Layer类中的一些关键方法贴出来,为了更加直观理解,方法的具体内容都删了,后面具体分析的时候,在进行补充。

首先我们可以看到,在Layer类中有两个特殊的方法,__init__()和__call__()。

__init__()是构造方法,当我们建立类对象时,首先调用该方法初始化类对象。

__call__()是可调用方法,一旦实现该方法,我们的类对象在某些行为上可以表现的和函数一样。可以直接通过类对象object()进行调用。下面举个例子。

pic2

上面我们定义了一个类,我们可以发现可以直接通过类对象()来调用__call__方法。【  obj()等价于obj.__call__()  】

这里我们也可以明白为什么平时可以直接使用例如  LSTM(32)(input)这种形式来添加网络层。其实这种形式本质是

pic3

上面的实例,我们也可以知道,在layer中__call__方法的参数是input,返回值是output。那么__call__方法究竟做了什么?下面贴关键源码(方便理解整个流程,贴完整的不易理解)感兴趣的可以对照源码理解。

pic4

OK!  观察上述代码,我们可以知道在__call__()方法中有几个关键操作,调用build(),调用call(),调用compute_output_shape(),最后再利用node将该层和上一层链接起来(如何链接可以不用关心)。

emmmmmmm,到这里,其实就是整个网络层的运行流程了。大家看懂了就可以撤了。

(somebody :"。。。。。。。what Fuck! 你这讲的都是啥,我还云里雾里呢!")

好吧,为了不让网友骂,我接着将build()等几个方法具体分析。

build():我们知道,当我们定义网络层的时候,需要用到一些张量(tensor)来对我们的输入进行操作。比如权重信息Weights,偏差Biases。其实一个网络本身就可以理解为这些张量的集合。keras是如何在我们给定input以及output_dim的情况下定义这些张量的呢?这里主要就是build()方法的功劳了。build函数就是为该网络定义一层相应的张量的集合。在Layer类中有两个成员变量,分别是trainable_weights和non_trainable_weights,分别是指可以训练的参数的集合和不可训练的参数的集合。这两个参数都是list。在build中建立的张量通过add_weight()方法加入到上面两个张量集合中,进而建立网络层。需要注意的是,一个网络层的参数是固定的,我们不能重复添加,因此,build()方法最多只能调用一次。如何保证每个layer的build()最多调用一次???这是通过self._built变量来控制的。如果built变量为True,那么build()方法将不再会被调用,否则build()才能被调用。在调用之后built会被赋值为True,防止以后build()被重复调用。这在__call__()方法中有体现。所以我们如何没有重新写__call__()方法,那么我们不用担心build()方法会被多次调用。但是如果重新写了__call__()方法,一定要注意在build()调用之后,将built置为True。【TIP:build只接受input一个参数,所以如果需要用到output_shape,可以在__init__()中将output_shape赋值给一个成员变量,这样就可以在build中直接使用output_shape的值了】。举个简单例子,以output=tanh(X*W+B),我们首先定义build()函数。这里用到的参数分别是W和B。假设输出的大小为output_dim,且已经在__init__()中已经初始化了。

pic5

call(): 该方法是整个网络层的逻辑输出。通过build(),我们已经有了网络层的权重等信息,接下来便是通过input以及这些权重张量(W,B)等来获得输出了。如何得到output就要根据大家需要的功能来说了。//////该函数返回值是output,__call__()方法也是通过调用call()来获得输出output。

pic6

comput_output_shape():返回输出的形状,便于keras搭建下一层网络时,可以自行推导出输入的形状

pic7

好了,以上便大功告成了【第一次写blog,希望能帮助大家更好理解keras网络层的整个控制流程】

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,014评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,796评论 3 386
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 158,484评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,830评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,946评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,114评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,182评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,927评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,369评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,678评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,832评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,533评论 4 335
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,166评论 3 317
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,885评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,128评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,659评论 2 362
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,738评论 2 351

推荐阅读更多精彩内容