BERT(Bidirectional Encoder Representations from Transformers,双向编码器Transformer)是Google研究团队发表于2018年的一个语言表示模型
时间线在GPT-1之后
使用的Transformer编码器部分
3.4亿的参数量 相当于3个vgg 参数量
image.png
entailment(蕴含)任务中的假设-前提句子对
有三种 矛盾关系
BERT(Bidirectional Encoder Representations from Transformers,双向编码器Transformer)是Google研究团队发表于2018年的一个语言表示模型
时间线在GPT-1之后
使用的Transformer编码器部分
3.4亿的参数量 相当于3个vgg 参数量
entailment(蕴含)任务中的假设-前提句子对
有三种 矛盾关系