BERT 的研究

BERT 理论



涉及论文

《Attention Is All You Need》

《Improving Language Understanding by Generative Pre-Training》

《BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding》

下面这篇资料言简意赅的给出了纲要,可以在此基础上深挖

http://www.linzehui.me/2018/10/14/%E8%AE%BA%E6%96%87/%E6%AF%8F%E5%91%A8%E8%AE%BA%E6%96%871/

1、CSDN BERT 资料

https://blog.csdn.net/qq_39521554/article/details/83062188#%E8%AE%BA%E6%96%87%E7%9A%84%E6%A0%B8%E5%BF%83%EF%BC%9A%E8%AF%A6%E8%A7%A3BERT%E6%A8%A1%E5%9E%8B%E6%9E%B6%E6%9E%84

https://blog.csdn.net/chunyun0716/article/details/83660390

2、知乎 BERT 资料

https://zhuanlan.zhihu.com/p/49271699(张俊林博士这篇是从蛋生鸡一步步介绍了BERT的起源和发展历程了,五星赞)

https://zhuanlan.zhihu.com/p/46652512

https://zhuanlan.zhihu.com/p/27608348

https://www.zhihu.com/question/298203515

3、今日头条 BERT 资料

https://www.toutiao.com/i6626146412599968260/

4、52nlp BERT 资料

http://www.52nlp.cn/tag/bert-as-service( 整理了相关资料和 BERT 应用 ,很不错)

BERT 实践

Google 的 BERT 地址:https://github.com/google-research/bert

BERT 对于使用者的优势之一就是可以避免pre-train,使用Google训练好的 pre-trained models

pre-trained-model 地址:https://github.com/google-research/bert#pre-trained-models

Google BERT Pre-trained Models

本人在开始尝试使用 BERT 的时候,借用了肖涵博士的 bert-as-service

1、作者肖涵博士的介绍

肖涵博士,bert-as-service 作者。现为腾讯 AI Lab 高级科学家、德中人工智能协会主席。

肖涵的 Fashion-MNIST 数据集已成为机器学习基准集,在 Github 上超过 4.4K 星,一年来其学术引用数超过 300 篇。肖涵在德国慕尼黑工业大学计算机系取得了计算机博士(2014)和硕士学位(2011),在北邮取得了信息通信学士学位(2009)。他曾于 2014-2018 年初就职于位于德国柏林的 Zalando 电商,先后在其推荐组、搜索组和 Research 组担任高级数据科学家。肖涵所创办的德中人工智能协会(GCAAI)如今拥有 400 余名会员,致力于德中两国 AI 领域的合作与交流,是德国最具影响力的新型团体之一。 

微信:hxiao1987

博客:https://hanxiao.github.io/

德中人工智能协会:http://gcaai.org/

2、bert-as-service 的介绍

肖涵博士的 bert-as-service 地址:https://github.com/hanxiao/bert-as-service

从 Contributors 中惊奇的看到,BERT 的主要贡献者 jacobdevlin-google 为 bert-as-service 也 commit 了大量代码

bert-as-service Contributors

这是 bert-as-service 的安装及使用介绍:https://pypi.org/project/bert-serving-server/

bert-as-service Install

这里要强调一下 bert-as-service 依赖的软件环境是 Python 3.5 & Tensorflow 1.10 及以上版本

亲测经过使用谷歌 pre-trained 提供的 chinese_L-12_H-768_A-12 模型,计算一些 phrase 的向量,然后用 cos 评估其相似度的结果如下

Phrase 相似度

当然这个只是使用谷歌提供的原始 pre-trained 模型得到的结果,结合我们的业务,进行 fine-tuning 是十分重要的

搜集部分 fine-tuning 的参考资料如下,留下研究

BERT模型fine-tuning代码解析(一)(https://leowood.github.io/2018/11/16/BERT-fine-tuning-01/)

干货 | BERT fine-tune 终极实践教程 (https://www.jianshu.com/p/aa2eff7ec5c1) 

乾貨 | BERT fine-tune 終極實踐教程 (含参数据的Fine-tune调试:https://www.jishuwen.com/d/205W/zh-tw)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,163评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,301评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,089评论 0 352
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,093评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,110评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,079评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,005评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,840评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,278评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,497评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,394评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,980评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,628评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,649评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,548评论 2 352

推荐阅读更多精彩内容