240 发简信
IP属地:广东
  • 120
    NLP预训练模型

    NLP预训练模型 一、按照时间线主要有: ELMO (2018.3 华盛顿大学 )传统word2vec无法解决一词多义,语义信息不够丰富,诞生了ELMO GPT (2018....

  • 120
    bert生成句向量

    BERT本质上是一个两段式的NLP模型。第一个阶段叫做:Pre-training,跟WordEmbedding类似,利用现有无标记的语料训练一个语言模型。第二个阶段叫做:Fi...

  • bert-serving-server搭建bert词向量服务

    1. BERT BERT工具能够快速的得到词向量表示。名称叫做: bert-as-service,只要调用该服务就能够得到我们想要的向量表示。 2. 安装 bert-as-s...