python学习的第三天

三国T10分析

  1. 读取小说内容
  2. 将小说内容进行分词
  3. 词语过滤,删除分词后的无关词和重复词
  4. 将词语出现次数进行排序
  5. 得出结论,绘制词云
  • _:该下划线的作用在于告诉别人,里面的循环不需要使用临时变量
  • collocations=False:相邻两个重复词之间的匹配
import jieba
from wordcloud import WordCloud
#需要排除的词语
exclude = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",
                "如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",
                "东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知","孔明曰","玄德曰","刘备","云长"}

# 1.读取小说内容

with open('./novel/threekingdom.txt','r', encoding='utf-8') as f:
    words=f.read()
count ={}

#2.分词

words_list=jieba.lcut(words)
print(words_list)

for word in words_list:
    if len(word)<=1:
        continue
    else:
        count[word]=count.get(word,0)+1
#count[word]=取出字典中原来键对应的值+1
# 更新字典中的值

#3.词语过滤,删除无关词,重复词
#更新
count['孔明']=count['孔明']+count['孔明曰']
count['玄德']=count['玄德']+count['玄德曰']+count['刘备']
count['关公']=count['关公']+count['云长']

for word in exclude:
    del count[word]

#利用函数来排序
#def sort_by_count(x):
 #   return x[1]
#4.排序[()]

items=list(count.items())
#print(items)

items.sort(key=lambda x:x[1],reverse=True)
print(items)
li=[]
#_是告诉看代码的人,里面的循环不需要使用临时变量
for i in range (10):
    #序列解包
    role,count=items[i]
    #print(items[i])
    for _j in range(count):
        li.append(role)
#5.得出结论
text=' '.join(li)
WordCloud(
    font_path='msyh.ttc',
    background_color='lightgreen',
    width=800,
    height=600,
    #相邻两个重复词之间的匹配
    collocations=False
).generate(text).to_file('top10.png')
效果图

匿名函数

  • 结构—lambda x1,x2...xn:表达式
sum_num=lambda x1,x2:x1+x2
print(sum_num(2,3))
name_info_list=[
    ('张三',4500),
    ('张yi',2500),
    ('张er',1500),
    ('张qi',6500),
]
name_info_list.sort(key=lambda x:x[1],reverse=True)
print(name_info_list)

stu_info=[
    {"name":'张三',"age":18},
    {"name":'张yi',"age":33},
    {"name":'张er',"age":8},
    {"name":'张qq',"age":25}
]
stu_info.sort(key=lambda i:i['age'])
print(stu_info)

列表推导式

  • 列表推导式—[表达式 for 临时变量 in 可迭代对象 可以跟追加条件]
# for循环生成的
li=[]
for i in range(10):
    li.append(i)
print(li)
#列表推导式
print([i for i in range(10)])

#筛选出列表中所有的偶数
li=[]
for i in range(10):
    if i%2==0:
        li.append(i)
print(li)
#使用列表解析
print([i for i in range(10) if i%2==0])

#筛选出列表中大于0的数
from random import randint
num_list=[randint(-10,10) for _ in range(10)]
print(num_list)
#使用列表解析
print([i for i in num_list if i>0 ])

#字典解析
#生成100个学生的成绩
stu_grades={"student{}".format(i):randint(50,100)  for i in range(1,101)}
print(stu_grades)
#筛选大于60分的所有学生
print({k:v for k,v in stu_grades.items() if v>60})

matplotlib

1. 曲线图
  • .linspace()—左闭右闭区间的等差数列
  • .legend()—图例
from matplotlib import pyplot as plt
import numpy as np
#设置字体为SimHei
plt.rcParams["font.sans-serif"] = ['SimHei']
#设置正常显示字符
plt.rcParams['axes.unicode_minus'] = False
x = np.linspace(0, 2*np.pi, num=100)
y = np.sin(x)
#  正弦和余弦在同一坐标系下
cosy = np.cos(x)
plt.plot(x, y, color='g', linestyle='--',label='sin(x)')
plt.plot(x, cosy, color='r',label='cos(x)')
plt.xlabel('时间(s)')
plt.ylabel('电压(V)')
plt.title('欢迎来到python世界')
# 图例
plt.legend()
plt.show()
柱状图
  • string.ascii_uppercase[]—遍历字符串中的每个字符
from random import randint
x = ['口红{}'.format(x) for x in string.ascii_uppercase[:5] ]
y = [randint(200, 500) for _ in range(5)]
print(x)
print(y)
plt.xlabel('口红品牌')
plt.ylabel('价格(元)')
plt.bar(x, y)
plt.show()
饼图
  • axis()—横纵坐标刻度
  • explode属性—圆心距离
from random import randint
import string
counts = [randint(3500, 9000) for _ in range(6)]
labels = ['员工{}'.format(x) for x in string.ascii_lowercase[:6] ]
# 距离圆心点距离
explode = [0.1,0,0, 0, 0,0]
colors = ['red', 'purple','blue', 'yellow','gray','green']
plt.pie(counts,explode = explode,shadow=True, labels=labels, autopct = '%1.1f%%',colors=colors)
#图例所在的象限
plt.legend(loc=2)
#纵横坐标的刻度一致
plt.axis('equal')
plt.show()
散点图
  • alpha属性—透明度
#均值为 0 标准差为1 的正太分布数据
x = np.random.normal(0, 1, 1000)
y = np.random.normal(0, 1, 1000)
plt.scatter(x, y, alpha=0.1)
曲线图

柱状图

饼图

散点图

三国top10饼图

import jieba
from wordcloud import WordCloud
from matplotlib import pyplot as plt
import numpy as np
plt.rcParams["font.sans-serif"] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False
exclude = {"将军", "却说", "丞相", "二人", "不可", "荆州", "不能", "如此", "商议",
                "如何", "主公", "军士", "军马", "左右", "次日", "引兵", "大喜", "天下",
                "东吴", "于是", "今日", "不敢", "魏兵", "陛下", "都督", "人马", "不知","孔明曰","玄德曰","刘备","云长"}

with open('./novel/threekingdom.txt','r', encoding='utf-8') as f:
    words=f.read()
count ={}
words_list=jieba.lcut(words)
for word in words_list:
    if len(word)<=1:
        continue
    else:
        count[word]=count.get(word,0)+1
        
count['孔明']=count['孔明']+count['孔明曰']
count['玄德']=count['玄德']+count['玄德曰']+count['刘备']
count['关公']=count['关公']+count['云长']
for word in exclude:
    del count[word]
items=list(count.items())
items.sort(key=lambda x:x[1],reverse=True)
li=[]
mingzi=[]
for i in range (10):
    role,count=items[i]
#通过循环得到最高十位的次数和名字
    li.append(count)
    mingzi.append(role)
#绘制饼图
plt.pie(li,labels=mingzi,autopct='%1.1f%%')
plt.show()
三国top10饼图效果图

红楼梦top10词云

import jieba
from wordcloud import WordCloud
exclude = {"什么", "一个", "我们", "你们", "如今", "说道", "老太太", "知道", "姑娘",
                "起来", "这里", "出来", "众人", "那里", "奶奶", "自己", "太太", "一面",
                "只见", "两个", "没有", "怎么", "不是", "不知", "这个", "听见", "这样","进来","咱们",
                "就是","东西","告诉","回来","只是","大家","老爷","只得","丫头","这些","他们","不敢","出去","所以","凤姐儿"}
# 1.读取小说内容
with open('./novel/all.txt','r', encoding='utf-8') as f:
    words=f.read()
count ={}
#2.分词
words_list=jieba.lcut(words)
for word in words_list:
    if len(word)<=1:
        continue
    else:
        count[word]=count.get(word,0)+1
#3.词语过滤,删除无关词,重复词
#更新
count['凤姐']=count['凤姐']+count['凤姐儿']
for word in exclude:
    del count[word]

#4.排序[()]
items=list(count.items())
items.sort(key=lambda x:x[1],reverse=True)
print(items)
li=[]
for i in range (10):
    role,count=items[i]
    for _j in range(count):
        li.append(role)

text=' '.join(li)
WordCloud(
    font_path='msyh.ttc',
    background_color='lightgreen',
    width=800,
    height=600,
    #相邻两个重复词之间的匹配
    collocations=False
).generate(text).to_file('红楼梦.png')
红楼梦TOP10效果图
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,928评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,192评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,468评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,186评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,295评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,374评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,403评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,186评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,610评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,906评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,075评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,755评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,393评论 3 320
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,079评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,313评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,934评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,963评论 2 351

推荐阅读更多精彩内容

  • #import jieba #1.读取小说内容 with open('./novel/threeekingdom....
    Hear_cb06阅读 397评论 0 0
  • 三国TOP10人物分析 运行结果: 匿名函数 ①结构:lambda x1,x2...xn:表达式 注:参数可以是无...
    Amieee阅读 341评论 0 0
  • python学习的第三天 1.三国TOP10人物分析 1.读取小说内容2.分词3.词语过滤,删除无关词、重复分词4...
    古乔萌阅读 306评论 0 0
  • 一、绘制词云 导入包 读取小说内容 分词 词语过滤,删除无关词,重复词 排序 序列解包 结论 二、匿名函数 匿名函...
    喵青禾阅读 328评论 0 0
  • 三国演义Top10 人物词云绘制 红楼梦 Top10 人物词云绘制 匿名函数 结构: lambda x1, x2,...
    可可西里_4160阅读 324评论 0 0