TensorFlow seq2seq解读

github链接

注:1.2最新版本不兼容,用命令pip3 install tensorflow==1.0.0

在translate.py文件里,是调用各种函数;在seq2seq_model.py文件里,是定义了这个model的具体输入、输出、中间参数是怎样的init,以及获取每个epoch训练数据get_batch和训练方法step
确定这些之后再考虑各种变量的shape等问题。

代码结构

seq2seq_model.py中定义了seq2seqModelclass结构
__init__函数里:

主要定义了self的各种参数的取值。

  • (如果需要sampled softmax: 定义sampled_softmax_loss函数)
  • 定义RNN结构
  • 准备encoder_inputs等的placeholder
  • 调用seq2seq.model_with_buckets得到self.outputsself.losses
  • tf.clip_by_global_norm的方法来得到self.gradient_normsupdates
step函数(进行一次训练)里:

feed:把输入参数的encoder_inputsdecoder_inputs放入input_feed,最后session.run计算output的值。

get_batch函数里:

字面义,从输入参数data中随机选取符合要求bucket_id的数据PAD后返回。
返回结果——以self_test时的encoder_inputs为例,其格式为encoder_size*batch_size(6*32),decoder_inputs同理

translate.py是直接运行的文件
函数read_data

读取source language和target language文件,返回n个data_set,每个里面是(source,target)的句子pair,长度符合bucket[n]的要求

函数create_model

利用seq2seq_model.py生成model结构,如果已经存在ckpt文件,则读取参数,否则session.run(initializer)

函数train

with tf.session() as sess:

  • 调用create_model函数生成model
  • 调用read_data生成dev_set和train_set
  • training loop: 随机选一个bucket_id->model.get_batch->model.step
函数decode

with tf.session() as sess:

  • create_model并load参数
  • 读取待翻译的句子,决定对应的bucket_id
  • model.get_batch->model.step
  • 取可能性最大的output,截断<EOS>
data_utils.py
生成了以上文件

ids代表把单词转化为了id,giga开头的是训练文件,newstest是测试文件,vocab里是一行一个单词的单词汇总。

具体分析:

1. model里调用的几个自带函数tf.nn.sampled_softmax_losstf.contrib.legacy_seq2seq.embedding_attention_seq2seqtf.contrib.legacy_seq2seq.model_with_buckets的关系。

tf.nn.sampled_softmax_loss,网络本身通过sampled_softmax(W*x+b)把输入的向量的维度扩展到target_vocab_size,这个函数是用来这一步的loss,会在后来被用于计算整体的loss。
tf.contrib.legacy_seq2seq.embedding_attention_seq2seq是不能计算的loss的,它只是负责返回这个网络的最终输出outputs [batch_size x decoder_size] 和状态states[batch_size x cell.state_size]。主要参数有

encoder_inputs,
decoder_inputs,
cell

tf.contrib.legacy_seq2seq.model_with_buckets是用来和target作比较,能计算出整体的loss(sampled_softmax的loss是一部分)。返回outputs [batch_size x output_size]和losses for each bucket。主要参数有

self.encoder_inputs, self.decoder_inputs, targets,
self.target_weights, buckets,
lambda x, y: seq2seq_f(x, y, False),
softmax_loss_function=softmax_loss_function
2. train和decode时的RNN输入和输出是怎样的?

train的时候,decoder_input是完整的<go>+W+X+Y+Z。不需要用sampled_softmax计算输出word。
decode的时候,decoder_input只有<go>,之后的decoder_input都是用上一个target。需要用sampled_softmax。

3. sess.run部分的训练方法是怎样的?

在model的初始化部分,定义了self.losses[len(bucket)]self.gradient_norms[len(bucket)]self.updates[len(bucket)]
在model.step部分,定义output_feed即为上述三个合并在一起。当然,要feed的只是某一个bucket,所以要指定[bucket_id]。

代码运行说明:

  1. 首先用迅雷下载WMT语料库(压缩包),未避免每次运行都要重新解压,在translate.py文件中的train函数中,把else条件改为
        from_train="../newstest2013.en.ids40000"
        to_train="../newstest2013.fr.ids40000"
        from_dev="../newstest2013.en.ids40000"
        to_dev="../newstest2013.fr.ids40000"

具体位置根据实际情况判断,其作用是直接读取train和dev的source和target的word_ids文件,而不用每次都重新生成。上图中的.en.fr结尾的文件都可以删除,因为它们是原始word组成的文件,不再需要。

  1. 此命令需要运行很长时间,因为放到了服务器上。且如果不用tutorial中的小参数内存会不够。
    python translate.py --data_dir ~/omg --train_dir ~/omg/train --size=256 --num_layers=2 --steps_per_checkpoint=50
    运行后会依次显示:
Creating 2 layers of 256 units.
Created model with fresh parameters.
reading data lines XXX#作用是读取train文件中的句子,根据长度分配到不同的bucket中

之后进行到translate.py中的while true循环中,不断读取数据再model.step进行训练。同时会显示不同bucket中的perplexity。

  1. 经过~30K步(tutorial中的数据)0号1号bucket中的perplexity会下降到个位数,此时即可test。注意命令中的参数务必和train时的一样,否则读取checkpoint会报错。
    python translate.py --decode --data_dir ~/omg --train_dir ~/omg/train --size=256 --num_layers=2 --steps_per_checkpoint=50
    成功进入读取输入的翻译阶段~由于训练参数太小效果不理想,如下图:
    将United States翻译成加拿大,不过China翻译正确。

链接:https://github.com/yingtaomj/GNMT_test

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,053评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,527评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,779评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,685评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,699评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,609评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,989评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,654评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,890评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,634评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,716评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,394评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,976评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,950评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,191评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,849评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,458评论 2 342

推荐阅读更多精彩内容