google-research/bert官方代码中的坑_run_classifier_效果很差原因

[[TOC好像还不支持]]

简介

bert官方代码google-research/bert中有很多很强的设定,稍有改动就会导致结果很差。此文档简单总结如下。
google-research/bert版本:d66a146

该文档撰写时间:2019年4月11日

主要基于任务:run_classifier.py

一、学习率相关

代码使用了带warmup和decay的Adam(AdamWeightDecayOptimizer),这两个参数策略是动态学习率常用的,问题在于,官方代码中此两参数跟命令行参数num_train_epochs-训练轮数强关联,如果盲目修改代码而不恰当地设置num_train_epochs参数就会很糟糕。

一个重要、多次用的参数:训练总步数num_train_steps=num_train_steps = int(len(train_examples) / FLAGS.train_batch_size * FLAGS.num_train_epochs)是由样本数、batch_size和命令行参数num_train_epochs轮数计算出来的。【很重要,一定注意】

1.1 warmup

在训练的开始阶段使用较小的学习率再逐渐调整到预设初始学习率对训练有一定的帮助(某共识,出处未寻)。代码中使用了线性的调整,计算公式(github)如下:

  # Implements linear warmup. I.e., if global_step < num_warmup_steps, the
  # learning rate will be `global_step/num_warmup_steps * init_lr`.
  if num_warmup_steps:
    global_steps_int = tf.cast(global_step, tf.int32)
    warmup_steps_int = tf.constant(num_warmup_steps, dtype=tf.int32)

    global_steps_float = tf.cast(global_steps_int, tf.float32)
    warmup_steps_float = tf.cast(warmup_steps_int, tf.float32)

    warmup_percent_done = global_steps_float / warmup_steps_float
    warmup_learning_rate = init_lr * warmup_percent_done

    is_warmup = tf.cast(global_steps_int < warmup_steps_int, tf.float32)
    learning_rate = (
        (1.0 - is_warmup) * learning_rate + is_warmup * warmup_learning_rate)

当训练的步数global_steps小于warmup_steps时,将学习率乘以global_steps/warmup_steps这样一个线性增长的系数。warmup_steps的计算公式(github)是num_warmup_steps = int(num_train_steps * FLAGS.warmup_proportion),其中warmup_proportion是一个命令行参数,默认0.1,num_train_steps是总共训练的步数,由num_train_epochs轮数计算出,如果这个数设的太大(尤其当训练样本超大时)前期学习率会很低基本不优化。

1.2 lr decay

代码中使用了线性学习率衰减,使用了tf.train.polynomial_decay多项式衰减,参数如下:

# Implements linear decay of the learning rate.
  learning_rate = tf.train.polynomial_decay(
      learning_rate,
      global_step,
      num_train_steps,
      end_learning_rate=0.0,
      power=1.0,
      cycle=False)

经过num_train_steps后将学习率衰减到end_learning_rate=0.0,power=1.0表示是个线性衰减。num_train_steps是根据命令行参数FLAGS.num_train_epochs-轮数计算出的,FLAGS.num_train_epochs默认是3,即如果未设置该参数,3个epoch后学习率将是0!!。

附tf.train.polynomial_decay介绍:

global_step = min(global_step, decay_steps)
  decayed_learning_rate = (learning_rate - end_learning_rate) *
                          (1 - global_step / decay_steps) ^ (power) +
                          end_learning_rate

【注意】:

  1. CASE1:训练时间后,调大batch_size,会导致训练总步数num_train_steps变小,甚至小于当前全局步数global_steps,此时学习率会变成0,就没必要训练了。可以对应比例调整num_train_epochs训练轮数解决。

1.3 二次训练

训练一次后发现没有完全收敛,要再接着训练一次,但最新的checkpoints中学习率已经变成0了,修改num_train_epochs直接训练会导致没有任何效果。可以做如下修改:

  1. 指定新的output_dir, FLAGS.init_checkpoint指向上一次训练的output_dir。
  2. model_fn函数初始化模型时不要restore优化器相关的权重,尤其learning_rate。

二、shuffle-训练时的数据打乱

如果训练样本顺序输入,且同类样本较多时,代码中的shuffle可能起不到作用。d = d.shuffle(buffer_size=100)使用了Dataset的shuffle,其中buffer_size指缓冲区大小。训练时每次从缓冲区中按batch取样本,但缓冲区的补充是顺序取后续样本,如果buffer_size=1那就是没有打乱,顺序地取样本,如果buffer_size等于样本总数就相当于全局shuflle,但可能内存不够。

【建议】:数据处理时提前打乱;或buffer_size调大些,比如调成最大类下样本数。

三、流程相关-Estimator

Estimator时tensorflow高级api,旨在将训练、验证、预测、部署统一,但会带来很大的不灵活。常用流程一个epoch后eval一次,可以通过多次/循环调用estimator.train、estimator.evaluate。但是:

  1. 目前代码版本,每次train/evaluate都会重新构建model、加载与训练模型、回复最新的checkpoint,目前有个PR提出通过RunHook避免,相见google-research/bert/pull/450

  2. 一定不要忽略FLAGS.num_train_epochsnum_train_epochs

后记

相比pytorch,tf学习成本要高一些,尤其一些高级api。预研型实验还是pytorch简单高效。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容