前几天细读GPT的paper,里面使用的基础模型和BERT一样都是Transformer,区别就在于GPT用的是单向Transformer,而BERT使用的是双向Transf...
前几天细读GPT的paper,里面使用的基础模型和BERT一样都是Transformer,区别就在于GPT用的是单向Transformer,而BERT使用的是双向Transf...
这两天能一本正经胡说的语言模型GPT-2.0大火,官方OPENAI以模型太强大担心被坏人使用为由,也只公布了117M的模型,是不到号称的15亿参数的十分之一,同时牵起了OPE...