240 发简信
IP属地:四川
  • 120
    2019-02-22 Transformer (GPT、BERT的核心)

    前几天细读GPT的paper,里面使用的基础模型和BERT一样都是Transformer,区别就在于GPT用的是单向Transformer,而BERT使用的是双向Transf...

  • 120
    2019-02-19 GPT-2.0 Language Models are Unsupervised Multitask Learners

    这两天能一本正经胡说的语言模型GPT-2.0大火,官方OPENAI以模型太强大担心被坏人使用为由,也只公布了117M的模型,是不到号称的15亿参数的十分之一,同时牵起了OPE...