- 1) Google 翻译提供 “特定性别翻译”,大大消除性别表述歧义
https://mp.weixin.qq.com/s/3b5PlwbTli1IgZZsRrat9g
- 2)清华大学自然语言处理组整理的必读机翻论文list
https://github.com/THUNLP-MT/MT-Reading-List/blob/master/README.md#domain_adaptation
- 3)盘点2018年NLP令人激动的10大想法
https://mp.weixin.qq.com/s/5F6h2F8L-OdFJxBY2QrWJg
- 4) 基于自编码器的表征学习:如何攻克半监督和无监督学习?
https://mp.weixin.qq.com/s/Dqz97_U5pw_4d9KFblJfLg
- 5)一招理解LSTM/GRU门控机制
https://mp.weixin.qq.com/s/oMeH8G4SP6xWqgF_An1lxA
- 6)聊聊Atman数据的高效利用(一)——数据清洗(去噪)
https://mp.weixin.qq.com/s/-OJGFzqUF2wVDTeONG1f7Q
- 7)聊聊Atman数据的高效利用(二)——数据增强
https://mp.weixin.qq.com/s/Ye-gsELO1pF6GHB4YQIPrg
- 8)【清华刘洋】244页机器翻译学术论文写作方法和技巧
https://mp.weixin.qq.com/s/6-Z3eBlybEfCMbITi17hjw
- 9)回顾 | Facebook AI Research研究员顾佳涛:面向低资源语言的多语神经机器翻译
https://mp.weixin.qq.com/s/KrjELh9RC7b1Gypn_Zzz-A
- 10)通过更快的训练和推理,将神经机器翻译推广到更大的数据集
https://code.fb.com/ai-research/scaling-neural-machine-translation-to-bigger-data-sets-with-faster-training-and-inference/
- 11)在翻译中发现:通过深入学习从头开始构建语言翻译
https://blog.floydhub.com/language-translator/
- 12)Unsupervised machine translation: A novel approach to provide fast, accurate translations for more languages
https://code.fb.com/ai-research/unsupervised-machine-translation-a-novel-approach-to-provide-fast-accurate-translations-for-more-languages/
- 13)The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning)
http://jalammar.github.io/illustrated-bert/
- 14)The Annotated Transformer
http://nlp.seas.harvard.edu/2018/04/03/attention.html
- 15)Natural Language Processing is Fun!
https://medium.com/@ageitgey/natural-language-processing-is-fun-9a0bff37854e
- 16) Meta-Learning 元学习:学会快速学习
https://mp.weixin.qq.com/s/zJzAHaqBewItaXWt7lqk-Q
- 17)Understanding Back-Translation at Scale
https://mp.weixin.qq.com/s/2shtJx6A9lagGhsLQU3Igg
- 18) 注意力机制(Attention)最新综述论文及相关源码
https://mp.weixin.qq.com/s/WwBnPQweznxBtvpAjobUGg
- 19)囊括欧亚非大陆多种语言的25个平行语料库数据集
https://mp.weixin.qq.com/s/kNX6LCsAxdJh_Nx0eBi7uw
- 20)EMNLP 2018 最佳论文:Facebook 提升 11BLEU 的无监督机器翻译
https://mp.weixin.qq.com/s/HYIISWk3Ftan59CxCSrsMw
- 21)EMNLP 2018 | 用强化学习做神经机器翻译:中山大学&MSRA填补多项空白
https://mp.weixin.qq.com/s/GbrrHt8RFZvUeplUEmaTsg
- 22)EMNLP 2018 | 腾讯AI Lab提出翻译改进模型Transformer的3个优化方法
https://mp.weixin.qq.com/s/EKzLQ9eYTR5l-GYtmb_3qQ
- 23) EMNLP 2018 | 为什么使用自注意力机制?
https://mp.weixin.qq.com/s/jRfOzKO6OlQLokIzipbqUQ
- 24) 机器翻译新突破!“普适注意力”模型:概念简单参数少,性能大增
https://mp.weixin.qq.com/s/lZOIK5BRXZrmL_Z9crl6sA
- 25)专访 | 监管机器翻译质量?且看阿里如何搭建翻译质量评估模型
https://mp.weixin.qq.com/s/T5ybwhxZF2bN2hIPxELe4A
- 26) 资源 | 让手机神经网络速度翻倍:Facebook开源高性能内核库QNNPACK
https://mp.weixin.qq.com/s/KuckBYOMbKYPDFabT63DsA
- 27) EMNLP 2018 | Google AI提出「透明注意力」机制,实现更深层NMT模型
https://mp.weixin.qq.com/s/h7sLwVXb_UI8jvJU-oe3Cg
- 28) 32分钟训练神经机器翻译,速度提升45倍
https://mp.weixin.qq.com/s/mg-d1W5i9rzaLMNrvq0tSQ
- 29) EMNLP 2018 | 结合通用和专用NMT的优势,CMU为NMT引入「语境参数生成器」
https://mp.weixin.qq.com/s/nTLxvrxnKRmHl8ZDWxI42Q
- 30) 入门 | 无需双语语料库的无监督式机器翻译
https://mp.weixin.qq.com/s/wf4m4xxxJoEltWIglS-SSA