本篇文章的灵感主要来源于网上各种各样的关于自然语言分析的教程。曾记得我N年前读过《完美世界》。突然有种想分析其人物关系的冲动。当然现在我已经对里面主人公忘得一干二净,正好排除外界因素来检测文本处理人物关系是否正确。
首先介绍一下本篇文章的主要内容。第一步先统计小说里面出现的TOP20高频词。第二步就绘制一个关于小说的高频词词云。第三步则绘制人物关系图(CP图)
第一步
首先先说明一点由于本次处理的是中文的小说。所以要先做一些预处理不然很容易出现乱码、中文不显示等错误。这个方法可以通用到中文处理的操作上。
import pandas as pd
import numpy as np
import jieba
import wordcloud
from PIL import Image
import matplotlib.pyplot as plt
import seaborn as sns
from pylab import mpl
mpl.rcParams['font.sans-serif']=['SimHei']
mpl.rcParams['axes.unicode_minus']
最后两行代码可以通用哦。这是对中文正常在图中显示的惯用方法。同时也通过上述代码把我们需要用到的python库导入。
同时处理中文还有一个比较麻烦的地方就是需要进行分词。众所周知中文段落处理是要进行分词的。因为大部分一个字是没有含义的。譬如“我不喜欢麻烦”。我们需要利用分词技术把这句话切分为“我 不 喜欢 麻烦”。等价于英文的“i dont like trouble”。理解了这层含义之后我们就可以愉快地进行分词了。此处我采用的是jieba工具。具体代码如下所示:
# 导入停用词
stop_words=pd.read_csv('C:/Users/john/Downloads/stopwords.txt',engine='python',error_bad_lines=False,encoding='utf-8',names=['StopWords'])['StopWords'].tolist()
f=open('C:/Users/john/Desktop/完美世界.txt',encoding='utf-8').read()
# 导入词库字典
jieba.load_userdict('C:/Users/john/Downloads/完美世界.txt')
# 分词
def cut_document(f):
return[w for w in jieba.cut(f) if w not in stop_words and len(w)>1]
cut_doc=cut_document(f)
上述代码原理很简单,如果各位爷看不懂的话强烈建议认真读一下jieba的文档(反正有中文版本,而且在中文处理很常用。读不了吃亏读不了上当)
接下来就是统计词频了。此处我采用的是collections库中的Counter函数。
# 统计词频
font2 = {'family' : 'Times New Roman',
'weight' : 'normal',
'size' : 30,
}
from collections import Counter
def get_count(txt):
c=Counter()
for x in cut_doc:
c[x]+=1
print('小说词频统计:')
doc_name=[]
doc_counter=[]
for (k,v) in c.most_common(20):
doc_name.append(k)
doc_counter.append(v)
return doc_name,doc_counter
doc_name,doc_counter=get_count(cut_doc)
figure=plt.figure(figsize=(32,32))
plt.tick_params(labelsize=23)
sns.barplot(doc_name,doc_counter,palette="husl")
plt.title('TOP 20',font2)
plt.ylabel('count',font2)
sns.despine(bottom=True)
plt.show()
可得下图所示:
石昊的出现次数超过35000。这绝逼是男主。其他之所以出现很多无意义的词主要是因为我停用词没有特别针对该部小说。所以才出现很多无意义的词进入TOP20了(譬如‘出手’,‘一道’,‘真的’)。
接下来就是高频词云了:
# 词汇云
from scipy.misc import imread
import scipy
print(scipy.__version__)
fig=plt.figure(figsize=(16,16))
cloud=wordcloud.WordCloud(font_path='C:/Windows/Fonts/FZSTK.TTF',mask=imread('C:/Users/john/Downloads/1111.png'),mode='RGBA',background_color=None).generate(' '.join(cut_doc))
plt.imshow(cloud)
plt.axis('off')
plt.show()
通过上述代码可绘制出如下词云:
汉字越大说明该汉字在小说中出现的次数越多。通过该词云可知“石昊”和“小不点”出现次数都很多。好像“石昊”外号是“小不点”吧。。。我不太确定。
做到这一步之后就是激动地CP图环节了。由于我单纯的特特特想要知道男主人公有几个媳妇。。。。。所以我就做了这张CP图。。该图主要采用工具gephi绘制。以及人物名TXT文档完美世界词条(需要自己处理)。当然前期需要做一些数据处理。
此处用到的工具是
cp=pd.read_csv('C:/Users/john/Downloads/人物2.txt',encoding='utf8',engine='python',names=['cp'])['cp'].tolist()
# CP图设计
import codecs
import jieba.posseg as pseg
names={}
relationships={}
linenames=[]
jieba.load_userdict('C:/Users/john/Downloads/人物.txt')
with codecs.open('C:/Users/john/Desktop/完美世界.txt','r','utf-8') as f:
n=0
for line in f.readlines():
n+=1
# print('正在读取第{}行'.format(n))
poss=pseg.cut(line)
linenames.append([])
for w in poss:
if w.flag!='nr' or w.word not in cp or len(w.word)<2 or len(w.word)>3:
continue
linenames[-1].append(w.word)
if names.get(w.word) is None:
names[w.word]=0
relationships[w.word]={}
names[w.word]+=1
for line in linenames:
for name1 in line:
for name2 in line:
if name1==name2:
continue
if relationships[name1].get(name2) is None:
relationships[name1][name2]=1
else:
relationships[name1][name2]=relationships[name1][name2]+1
node = pd.DataFrame(columns=['Id','Label','Weight'])
edge = pd.DataFrame(columns=['Source','Target','Weight'])
for name,times in names.items():
node.loc[len(node)]=[name,name,times]
for name,edges in relationships.items():
for v,w in edges.items():
if w>3:
edge.loc[len(edge)]=[name,v,w]
edge.to_csv('C:/Users/john/Downloads/edge(原).csv',index=0)
node.to_csv('C:/Users/john/Downloads/node(原).csv',index=0)
这样我们就成功绘制出来CP图了。效果如下:
从CP图里可以知道男主人公石昊和清漪以及月婵是有一腿的。同时清漪和月婵关系应该比较好。(因为两人有连线)所以这俩人应该是主人公的正牌媳妇。但是有一个叫做云曦的应该也是和石昊有什么暧昧关系的。。。。但是应该和前两位女子不熟或者没有多少往来。
求读过该小说的老司机可以评价一下我分析的是否正确。