Bert预训练模型

NLP预训练模型简介

旺达

一、BERT简单文本分类实例

1、bert详细运行介绍--tensorflow

https://github.com/wangjiwu/BERT-emotion-classification

2、bert pytorch版本介绍

https://github.com/huggingface/transformers

3、transformers详细文档

https://huggingface.co/transformers/

4、实例转换:Converting Tensorflow Checkpoints

export BERT_BASE_DIR=/path/to/bert/uncased_L-12_H-768_A-12

transformers bert \
  $BERT_BASE_DIR/bert_model.ckpt \
  $BERT_BASE_DIR/bert_config.json \
  $BERT_BASE_DIR/pytorch_model.bin

二、预训练模型下载

Bert预训练模型

1、TensorFlow code and pre-trained models for BERT

地址:https://github.com/google-research/bert

2、中文预训练BERT-wwm(Pre-Trained Chinese BERT with Whole Word Masking

地址:https://github.com/ymcui/Chinese-BERT-wwm

Roberta预训练模型

3、RoBERTa中文预训练模型: RoBERTa for Chinese

地址:https://github.com/brightmart/roberta_zh

XLNet Pre-trained model

4、官方版:XLNet: Generalized Autoregressive Pretraining for Language Understanding

https://github.com/zihangdai/xlnet

5、Pre-Trained Chinese XLNet(中文XLNet预训练模型)

https://github.com/ymcui/Chinese-PreTrained-XLNet

albert_zh

6、海量中文预训练ALBERT模型

https://github.com/brightmart/albert_zh

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

  • 本文上两篇系列 NLP的巨人肩膀(上) NLP的巨人肩膀(中) 4.6 Bidirectional Encoder...
    weizier阅读 6,822评论 1 22
  • 偶然看到了喜欢的金城武拍的新片子,突然特别想去捧场。所以提前买了点映票,提前看了一场情怀。 记得前几年看了《重庆森...
    易家彪阅读 1,264评论 0 0
  • 一路上的坎坷奇遇都不足以放进我的日记里,我只想写你。 我在火车上遇见了一个让我特别想去搭讪的人,他个你一样瘦,一样...
    鹧鸪嗻鸪阅读 535评论 3 3
  • 高可用系统设计:1、软硬件冗余,消除单点故障,任何系统都有冗余系统处于standby2、故障检测与恢复,检测故障并...
    阿杜me阅读 448评论 1 1
  • 山路崎岖不平,我坐在飞驰的汽车上,一边听同事聊天,一边回想训练营学到的东西。同事A感慨道,以前单位人少,事情也少,...
    pursuingzy阅读 279评论 0 2

友情链接更多精彩内容