240 发简信
IP属地:新疆
  • Attention机制(原理+代码)

    Attention机制(原理+代码) 直接进入正题,在介绍Attention机制之前需要知道什么是seq2seq模型,也就是Encoder-De...

  • Resize,w 360,h 240
    爬虫学习1-豆瓣爬虫

    目的: 1.根据用户输入,列出豆瓣高分TOP(用户自定义)的电影,链接,及热评若干 方案: 使用PhantomJS+Selenium+Firef...

  • 一篇所有研究生都该读的好文——科研静好

    上海大学一位老师说:“不可否认的是,研究生面临着比较大的生存压力,但是要平衡自己的方向,在没有生存威胁的情况下,要专注于学习。”他表示,在...

  • Resize,w 360,h 240
    2018-NAACL- Bi-model based RNN Semantic Frame Parsing Model for Intent

    In this paper, new Bi-model based RNN semantic frame parsing network str...

  • How to Be a Successful PhD Student(in Computer Science (in NLP/ML)

    Wirter: Mark Dredze (Johns Hopkins University) Hanna M. Wallach (Univ...