分词练习

一、jieba分词
1.在cmd中安装结巴分词

python setup.py install

并在python环境下输入

import jieba

没有出现报错,故判断为成功安装

2.安装pycharm

3.进行分词测试
个人通过pycharm在jieba目录下建立文件名为2.py 的文件,并在文件中输入测试代码

import jieba
seg_list = jieba.cut("我来到北京清华大学",cut_all=True)
print ("Full Mode:","/ ".join(seg_list)) #全模式
seg_list = jieba.cut("我来到北京清华大学",cut_all=False)
print ("Default Mode:", "/ ".join(seg_list)) #精确模式
seg_list = jieba.cut("他来到了网易杭研大厦") #默认是精确模式
print (", ".join(seg_list))
seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") #搜索引擎模式
print(", ".join(seg_list))

cmd中执行指令:

python 2.py

结果如下:


4.自定义词典
a.创建词典


b.添加词典
代码如下:

import jieba
test_sent = ("我来到北京清华大学,他来到了网易杭研大厦,小明硕士毕业于中国科学院计算所,后在日本京都大学深造")
jieba.load_userdict("mydict.txt")
words = jieba.cut(test_sent)
print('/'.join(words))

结果如下



通过自定义词典对分词结果进行了修订

c.动态词典
代码如下:

import jieba
test_sent = ("我来到北京清华大学,他来到了网易杭研大厦,小明硕士毕业于中国科学院计算所,后在日本京都大学深造")
jieba.add_word('我来到')
words = jieba.cut(test_sent)
print('/'.join(words))

结果如下:


二、NLPIR在线分词工具
1.打开语义分析系统



分词提取如下:


词频统计如下:


关键词提取如下:


三、中文在线抽词-PullWord
它基于词语出现的评率对文字进行了分词处理,相比于前两种分词工具,它的分词结果较不直观。


©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 在接下来的分词练习中将使用到四川大学公共管理学院的一篇新闻进行练习,文本如下: 为贯彻落实党的十九大精神,不断提升...
    nicokani阅读 5,042评论 0 4
  • 使用ICTCLAS(NLPIR)在线分词工具和jieba分词组件进行分词练习。 一. ICTCLAS 1.简介 汉...
    Carina_55阅读 4,181评论 0 1
  • 1.安装及入门介绍 推荐直接 pip install jieba 结巴中文分词涉及到的算法包括: (1)基于Tri...
    MiracleJQ阅读 14,521评论 0 5
  • 关于分词工具包的体验:分词练习2——分词体验 现有的分词工具包 (1)NLPIR NLPIR汉语分词系统,又名IC...
    骆落啊阅读 4,661评论 0 6
  • 接分词练习1——分词工具包 分词效果尝试 接下来我将体验NLPIR和jieba分词的效果,其中,NLPIR使用在线...
    骆落啊阅读 3,989评论 0 1