【lhy人类自然语言处理】 22 Generation

22 Generation

outline.png

1.Generation

可以用一个RNN产生a character / word

在英文中a-z是character

image.png

generate pixal生成图片

用一个三维的方向map去生成每个位置

image.png

想要构建右下角的几个关系,用一个3d-lstm,

image.png

RNN生成其他任务

image.png

Conditional Generation

让机器看一些东西,根据我们提供的东东去生成;而不是随机产生

image.png

把image通过一个训练好的CNN得到一个向量,扔给RNN,如果担心RNN忘记之前的image,就把image反复喂给RNN

image.png

之前可以用RNN去生成

Machine Translation

把“机器学习”四个character扔给一个训练好的RNN,得到最后的一个向量。

encoder和decoder的rnn的参数可以一样,可以不一样。

这就是seq2seq learning

image.png

再拿一个encoder记住之前的,把前面的说过的都当做一个condition

image.png

RNN不需要看完整句机器翻译得到machine,可能看过机器就能得到很好结果

image.png

Attention

image.png
image.png
image.png

计算c1

image.png
image.png
image.png

效果:

image.png

00:47:00 讲述 memory network

最早做在阅读理解上

image.png

更复杂的部分:

这件事情叫作hopping,联合训练得到a和h向量

image.png
image.png

neural Turing Machine

image.png

turing machine的实现方案:

e1:把原来的memory清空

a1:把计算处理的东东写到memory中

image.png
image.png
image.png

根据视频去生成

image.png

TIps for Generation

Attention


image.png
image.png

Exposure bias解释:

image.png

解决办法就是Scheduled Sampling

image.png

第二种方案是 beam search 柱搜索

当每个结点的分支太多,就不好搜索,可以用greddy search

image.png

左边是sample出来的,而右边图直接把前一个rnn计算出来的扔到后面一个,这种做法好微分,好求梯度。

image.png

老师说这个R(y,y_hat)不可以微分,然后用Reinforcement learning做

image.png

把genration当做reinforcement learning来做

image.png

当这个sentence被generate出来后,然后再计算R

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。