自然语言处理之分词3

本节将介绍在自然语言处理分词或序列标注过程中应用较广泛的CRF条件随机场模型。

CRF算法是2001年提出,结合了最大熵模型和隐马尔科夫模型,是一个典型的判别式模型。近年来在分词、词性标注和命名实体识别等序列标注任务中取得了很好的效果。其基本思路是把分词转换为分类问题,通过给汉字打标签实现分词,不仅考虑文字词语出现的频率,同时考虑上下文语境,对歧异词和未登录词的识别效果较好,此外,对所有特征进行全局归一化,进而求得全局最优值。但是训练周期较长,计算量大,性能不如词典统计分词。本文使用开源的条件随机场工具包“CRF++:Yet Another CRF toolkit”实现中文分词,选用的训练语料是微软亚洲研究院提供的中文分词语料(如下图所示),测试语料来自backoff2005测试脚本。


上图语料来自微软亚洲研究院提供的中文分词语料

CRF分词原理:
1、训练语料预处理。原始训练语料是已经分好词的预料,词与词之间通过空格隔开。按照如下定义字对数据进行格式化:①词首——用B表示 ②词中——用M表示 ③词尾——用E表示 ④单子词——用S表示。数据格式化脚本如下:

import codecs
import sys
def character_tagging(input_file, output_file): 
    #这里的codecs库保证了输入文件为utf-8格式,输出也为utf-8格式
    input_data = codecs.open(input_file, 'r', 'utf-8')
    output_data = codecs.open(output_file, 'w', 'utf-8') 
    for line in input_data.readlines():  
        word_list = line.strip().split()  
        for word in word_list: 
            #注意这里的“\tS\n”一定不能漏写,这是设置处理之后的数据的格式的重要部分  
            if len(word) == 1:    
                output_data.write(word + "\tS\n")   
            else:    
                output_data.write(word[0] + "\tB\n")    
                for w in word[1:len(word)-1]:     
                     output_data.write(w + "\tM\n")
                     output_data.write(word[len(word)-1] + "\tE\n")
        output_data.write("\n") 
        input_data.close() 
        output_data.close()

if __name__ == '__main__': 
    if len(sys.argv) != 3:  
        print "pls use: python ####.py input output" 
        sys.exit(-1) 
    #这里的sys.argv[]是参数,需要在liunx环境下运行Python脚本时,输入的两个参数:输入文件位置,输出文件位置
    input_file = sys.argv[1] 
    output_file = sys.argv[2] 
    character_tagging(input_file, output_file)

格式化之后的数据如图所示:假设格式化后的文件为training_tag.utf8


格式化处理后training_tag.utf8文件格式

2、训练模型。用格式化后的训练语料training_tag.utf8训练CRF模型。主要利用CRF工具中的crf_learn训练模型,执行如下命令:crf_learn -f 3 -c 4.0 template training_tag.utf8 crf_model。其中,crf_model即为训练过后的模型。
3、测试语料格式化。原始的测试语料是一个纯文本文件,没有任何处理,如图a所示。需要将其处理成CRF要求的输入格式,处理脚本如下所示。

图a 原始测试语料
import codecs
import sys

def character_split(input_file, output_file):    
    input_data = codecs.open(input_file, 'r', 'utf-8')    
    output_data = codecs.open(output_file, 'w', 'utf-8')    
    for line in input_data.readlines():        
        for word in line.strip():            
            word = word.strip()            
            if word:                
                output_data.write(word + "\tB\n")
        output_data.write("\n")    
    input_data.close()    
    output_data.close()

if __name__ == '__main__':    
    if len(sys.argv) != 3:        
        print "pls use: python ####.py input output" 
        sys.exit()    
    input_file = sys.argv[1]    
    output_file = sys.argv[2]    
    character_split(input_file, output_file)    

格式化之后的数据如图所示:假设格式化后的文件为test_format.utf8

test_format.utf8文件格式

4、测试模型。用格式化后的测试语料test_format.utf8测试CRF模型。主要利用CRF工具中的crf_test测试模型,执行如下命令:crf_test -m crf_model test_format.utf8>test_tag.utf8 。其中,crf_model即为训练过后的模型,test_format.utf8即为格式化后的测试文件,test_tag.utf8即为模型的标注结果。
5、分词结果显示。按照定义的分词格式,将标记结果转换为分词结果,即将B和E之间的字,以及S单字构成分词。脚本如下:

import codecs
import sys

def character_2_word(input_file, output_file): 
    input_data = codecs.open(input_file, 'r', 'utf-8')
    output_data = codecs.open(output_file, 'w', 'utf-8')
    for line in input_data.readlines():
        if line == "\n": 
            output_data.write("\n")
        else:
            char_tag_pair = line.strip().split('\t')
            char = char_tag_pair[0]
            tag = char_tag_pair[2]
            if tag == 'B': 
                output_data.write(' ' + char)
                elif tag == 'M': 
                    output_data.write(char)
                elif tag == 'E':
                    output_data.write(char + ' ')
                else: # tag == 'S'
                    output_data.write(' ' + char + ' ')
    input_data.close()
    output_data.close()
if __name__ == '__main__':
    if len(sys.argv) != 3: 
        print "pls use: python ####.py input output" 
        sys.exit()
    input_file = sys.argv[1]
    output_file = sys.argv[2]
    character_2_word(input_file, output_file)

得到分词结果文件test_result.utf8,样式如图所示

分词结果文件test_result.utf8

6、分词结果测试。利用backoff2005测试样本对分词结果test_result.utf8进行测试。
执行./icwb2-data/scripts/score ./icwb2-data/gold/pku_training_words.utf8 ./icwb2-data/gold/pku_test_gold.utf8 test_result.utf8 > test_result.score
此处,pku_training_words.utf8 和pku_test_gold.utf8是测试文件中自带的,test_result.utf8即为上步生成的文件。test_result.score即为最后模型的评分。

上述步骤均可以复现,具体细节参考www.52nlp.cn/中文分词入门之字标注法4

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,670评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,928评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,926评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,238评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,112评论 4 356
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,138评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,545评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,232评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,496评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,596评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,369评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,226评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,600评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,906评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,185评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,516评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,721评论 2 335

推荐阅读更多精彩内容