# 词频统计
dfWord = dfSg.groupby('word')['count'].sum()
有没有人在这一步报错的?用jieba.cut分词就会出错,用jieba.analyse.textrank就没问题。怎么回事?
seg = jieba.analyse.textrank(title_upper.strip(),topK=10,withWeight=False,allowPOS=('ns','n','vn','v'))
seg = jieba.cut(title_upper.strip())
Python大数据:jieba分词,词频统计实验目的 学习如何读取一个文件 学习如何使用DataFrame 学习jieba中文分词组件及停用词处理原理 了解Jupyter Notebook 概念 中文分词 在自然语言处...