Task04: 动手学深度学习——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

(学习笔记,待补充)
本文目录如下:

  • 1.机器翻译
    • 1.1 机器翻译的概念
  • 2.注意力机制与Seq2seq模型
  • 3.Transformer

1. 机器翻译

1.1 机器翻译的概念

顾名思义,机器翻译即将一段文本从一种语言自动翻译成另一种语言。那么机器翻译的难点在哪呢?其难点在于,输出序列的长度可能与源序列的长度是不同的。
比如,将英文“I am Chinese”翻译成中文“我是中国人”,输入是三个单词,输出则变为了5个字。
针对这种情况,可以使用Encoder-Decoder。
encoder:输入到隐藏状态
decoder:隐藏状态到输出

1.2 Sequence to Sequence模型

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容