训练dependency parser
在example/training中有spaCy提供的几个模型训练样例,直接拷贝一个train_parser.py到spaCy的根目录,然后修改代码中的训练语料,修改为中文训练语料:
TRAIN_DATA = [
("他们进行抵押贷款交易。", {
'heads': [1, 1, 3, 4, 1, 1, 333, 333, 333, 333, 333],
'deps': ['nsubj', 'ROOT', 'compound', 'nmod', 'dobj', 'punct', 'depdep', 'dep', 'dep', 'dep', 'dep']
}),
("我喜欢伦敦和柏林。", {
'heads': [1, 1, 1, 2, 2, 1, 333, 333, 333],
'deps': ['nsubj', 'ROOT', 'dobj', 'cc', 'conj', 'punct', 'dep', 'dep', 'dep']
}),
("你在找些什么?", {
'heads': [2, 2, 2, 2, 2, 333, 333],
'deps': ['nsubj', 'advmod', 'ROOT', 'obj', 'punct', 'dep', 'dep']
}),
("我喜欢北京的秋天。", {
'heads': [1, 1, 3, 4, 1, 1, 333, 333, 333],
'deps': ['nsubj', 'ROOT', 'nmod', 'case', 'dobj', 'punct', 'dep', 'dep', 'dep']
})
]
其中,heads和deps的规则如下:
例句:我喜欢北京的秋天。
首先,spaCy引入了结巴分词,例句首先通过结巴进行分词,分词结果为:我 喜欢 北京 的 秋天 。接下来是句子结构,我--喜欢 喜欢--秋天 北京--的 的--秋天
heads:输入各分词所依赖的分词的索引号(索引号为:我-0喜欢-1 北京-2 的-3 秋天-4 。-5)
在这个例句中的核心词是 喜欢,那么句中各分词的heads定义为:
我:1(喜欢的索引)
喜欢:1(自己)
北京:3(的)
的:4(秋天)
秋天:1(喜欢)
。:1(喜欢)
对应的索引号是每个分词按句子结构中对应的分词的序号,核心词对应的是自己,标点对应标点前句子的核心词。
deps:
我:nsubj
喜欢:ROOT
北京:nmod
的:case
秋天:dobj
。:punct
详细的label编码参见 https://spacy.io/api/annotation#section-dependency-parsing
需要注意的是:在本样例中,spaCy是按照汉字的字数来计算heads和deps中的参数数量的,而进行标注时是以分词为单位标注和计算序号的,所以训练数据中的写法为:
("我喜欢北京的秋天。",{
'heads': [1, 1, 3, 4, 1, 1, 333, 333,333],
'deps': ['nsubj', 'ROOT', 'nmod','case', 'dobj', 'punct', 'dep', 'dep', 'dep']
})
heads中前六位为有效序号,而句子的实际字数加标点是9个,需要有9个数字,所以后面三个333是随意填充的。
deps同理,前六个是有效标记,后面三个是填充的。
接下来运行
python train_parser.py -mzh_model -o zh_model
test_text = "我喜欢北京的秋天。"
输出结果为:
Dependencies [
('我', 'nsubj', '喜欢'),
('喜欢', 'ROOT', '喜欢'),
('北京', 'nmod', '的'),
('的', 'case', '秋天'),
('秋天', 'dobj', '喜欢'),
('。', 'punct', '喜欢')]
在zh_model目录中可以看到生成了parser目录,目录结构如下:
zh_model
└──parser
├──cfg
├──lower_model
├──moves
├──tok2vec_model
└──upper_model
打开cfg文件查看,可以看到其中的labels已经有了nsubj、dobj、cc、punct等等labels。
到此,中文的parser模型就训练完成了,对于精度提升,需要准备至少几百条标注语料才能达到一定的好结果,准备好语料后重新运行训练代码即可。
文中完整代码可参考 https://github.com/jeusgao/spaCy-new-language-test-Chinese