爬取淘宝、京东评论数据并制作评论词云

一、天猫词云

1.天猫评论数据爬取

爬虫代码:

import re
import requests
 
'''
获取淘宝指定商品所有评论
自动获取评论页码数
'''
 
def main():
    #模拟浏览器访问
    headers = {'user-agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36'}
    url = "https://rate.tmall.com/list_detail_rate.htm?itemId=536695141637&spuId=692024154&sellerId=202224264&order=3"
    payload = {'currentPage':1} #g构建字典传递页码参数到url
    file = open('五谷磨房红豆薏米粉红枣薏仁粉五谷杂粮磨坊现磨营养代餐粥粉.txt', 'w', encoding='utf-8')
 
    # 自动获取所有评论页码
    pageNum = re.findall(r'"lastPage":[^,"]+', requests.get(url, params=payload, headers=headers).text, re.I)
 
    for page_Num in pageNum:
        last_page = int(page_Num.strip('lastPage":'))
 
    for k in range(0,last_page):
        payload['currentPage'] =  k + 1
        resp = requests.get(url, params=payload, headers=headers)
        #resp.encoding = 'gbk'
        # 正则保存所有resp.text的内容,款式,评论内容,评论时间
        sku = re.findall(r'"auctionSku":"([^"]+)"', resp.text, re.I)
        content = re.findall(r'"rateContent":"([^"]+)"', resp.text, re.I)
        data = re.findall(r'"rateDate":"([^"]+)"', resp.text, re.I)
 
    # 每一页评论的数量
        x = len(content)
 
            # 把评论数据保存到文件中
        for i in range(0, x):
            file.write(content[i] + '\n')
            print("正在写入第",20 * k + i + 1,"条")
            #file.write(str( 20 * k + i + 1 ) + '款式:' + sku[i] + '\n' + '评价内容:' + content[i] + '\n' + '日期:' + data[i] + '\n'+ '\n\n')
            #print("正在写入第",20 * k + i + 1,"条")
 
    file.close()
 
if __name__ == '__main__':
    main()
2 词频统计
词频统计.png
3 词云
易词云.png

二、淘宝词云

1.淘宝评论数据爬取
import requests
import json
def getCommodityComments(url):
    if url[url.find('id=')+14] != '&':
        id = url[url.find('id=')+3:url.find('id=')+15]
    else:
        id = url[url.find('id=')+3:url.find('id=')+14]
    file = open('淘宝五谷磨房红豆薏米粉红枣薏仁粉五谷杂粮磨坊现磨营养代餐粥粉.txt', 'w', encoding='utf-8')
    url = 'https://rate.taobao.com/feedRateList.htm?auctionNumId='+id+'&currentPageNum=1'
    res = requests.get(url)
    jc = json.loads(res.text.strip().strip('()'))
    max = jc['total']
    users = []
    comments = []
    count = 0
    page = 1
    print('该商品共有评论'+str(max)+'条,具体如下: loading...')
    while count<max:
        res = requests.get(url[:-1]+str(page))
        page = page + 1
        jc = json.loads(res.text.strip().strip('()'))
        jc = jc['comments']
        for j in jc:
            #users.append(j['user']['nick'])
            comments.append( j['content'])
            print(count+1,'>>',comments[count])
            count = count + 1

        # 每一页评论的数量
        x = len(comments)

        # 把评论数据保存到文件中
        for i in range(0, x):
            file.write(comments[i] + '\n')
    file.close()
    
getCommodityComments('https://item.taobao.com/item.htm?id=536613323530&')
2 词频统计
词频统计.png
3 词云
易词云.png

三、京东词云

1.京东评论数据爬取
import requests
import json

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/65.0.3325.181 Safari/537.36'}

#url = 'https://sclub.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv12345&productId=19523497981&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1'

url='https://sclub.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv158&productId=3914278&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1'
res = requests.get(url,headers=headers)
jd=json.loads(res.text.lstrip('fetchJSON_comment98vv12345(').rstrip(');'))
#上面这行真是让我蛋疼半天的元首,记住要去掉无关字符
com_list=jd['comments']

file = open('京东五谷磨房红豆薏米粉红枣薏仁粉五谷杂粮磨坊现磨营养代餐粥粉.txt', 'w', encoding='utf-8')

for i in com_list:
    content =i['content']
    file.write(content) #写入文件</code> 
    print(i['content'])
    
file.close()
2 词频统计
词频统计.png
3 词云
易词云(2).png
4 Python 制作词云

主要用到jieba分词包、numpy计算包、pandas数据分析包、WordCloud词云包、codecs语言代码处理包、matplotlib绘图功能包。

推荐安装anaconda,其中会集成numpy、pandas、codecs、matplotlib等包。

安装jieba分词包,WordCloud词云包
pip3 install jieba
pip3 install wordcloud

代码如下:

#coding:utf-8 
import jieba #分词包 
import numpy #numpy计算包 
import codecs #codecs语言代码处理包 
import pandas #数据分析包 
import matplotlib.pyplot as plt 
from wordcloud import WordCloud#词云包

file=codecs.open(u"京东五谷磨房红豆薏米粉红枣薏仁粉五谷杂粮磨坊现磨营养代餐粥粉.txt",'r',encoding='utf-8') 
content=file.read() 
file.close() 
segment=[] 
segs=jieba.cut(content) #切词 
for seg in segs: 
    if len(seg)>1 and seg!='\r\n': 
        segment.append(seg)

words_df=pandas.DataFrame({'segment':segment})
words_df.head()
stopwords=pandas.read_csv("stopwords.txt",index_col=False,quoting=3,sep="\t",names=['stopword'],encoding="gb18030")
words_df=words_df[~words_df.segment.isin(stopwords.stopword)]

#词频计数
words_stat=words_df.groupby(by=['segment'])['segment'].agg({"计数":numpy.size})
words_stat=words_stat.reset_index().sort_values(by="计数",ascending=False)
words_stat  #打印统计结果

#根据背景图制作词云
from scipy.misc import imread
import matplotlib.pyplot as plt
from wordcloud import WordCloud,ImageColorGenerator
%matplotlib 
bimg=imread('tuoyuan.jpg')
wordcloud=WordCloud(background_color="white",mask=bimg,font_path='simhei.ttf')
#wordcloud=wordcloud.fit_words(words_stat.head(4000).itertuples(index=False))
words = words_stat.set_index("segment").to_dict()
wordcloud=wordcloud.fit_words(words["计数"])
bimgColors=ImageColorGenerator(bimg)
plt.axis("off")
plt.imshow(wordcloud.recolor(color_func=bimgColors))
plt.show()

词频统计:

词频统计.png

词云图:

京东词云.png

四、遇到的问题:

1)数据量大,工程化存储问题

2)包含未填写评论数据,需清洗处理

参考资料:
Project 1 :Python爬虫源码实现抓取淘宝指定商品所有评论并保存到文件

利用Python爬虫爬取淘宝商品做数据挖掘分析实战篇,超详细教程

Python爬虫 获得淘宝商品评论

【Python】【爬虫】爬取京东商品用户评论(分析+可视化)

从京东评论中挖掘出用户关注的关键字,并使其可视化

京东评论用jieba分词并用词云可视化

京东商城评论爬虫

用柱状图,圆饼图,散点图等来显示词频,可视化

用Python生成词云

超简单:快速制作一款高逼格词云图

Python + wordcloud + jieba 十分钟学会用任意中文文本生成词云

利用python做微信聊天记录词云分析——记录美好回忆

京东的验证码和反爬都很烦人吧?那又怎样,照样轻松爬取京东数据

手把手教你写电商爬虫-第五课 京东商品评论爬虫 一起来对付反爬虫

Python 爬虫 爬取京东 商品评论 数据,并存入CSV文件

Python 模拟京东登录

京东商品和评论的分布式爬虫

京东评论爬虫(详解)

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 222,183评论 6 516
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,850评论 3 399
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 168,766评论 0 361
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,854评论 1 299
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,871评论 6 398
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,457评论 1 311
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,999评论 3 422
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,914评论 0 277
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,465评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,543评论 3 342
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,675评论 1 353
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 36,354评论 5 351
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 42,029评论 3 335
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,514评论 0 25
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,616评论 1 274
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 49,091评论 3 378
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,685评论 2 360

推荐阅读更多精彩内容

  • 用python爬取天猫商品评论并分析(2) 之前介绍过天猫数据的爬取和数据初步处理,今天介绍下将采集的评论进行文本...
    Java丶Script阅读 2,693评论 0 6
  • 最近上海好像有举行个什么维吾尔族的秘密时装秀,很好看的样子,不过我还没时间看。但是微博上已经吵翻了天,原因是 好吧...
    teaGod阅读 13,638评论 20 28
  • 谁在桂花的树下 轻拾满地落花 花虽枯萎余香留 何须攀枝又折花 谁在离别的秋天 挥洒不舍泪滴 一颗心一个梦一瞬间 转...
    暖心小屋阅读 258评论 2 2
  • 从前在中国的南部有一座巍峨险峻的大山,身上有两个相互敌对的部落——南部落和北部落,两个部落的士兵每天都手握...
    五2班王悠然阅读 504评论 0 8
  • 什么东西需要快递 什么东西需要亲自见面 什么情况需要发红包 什么回复需要发邮件 什么消息需要发短信 什么事情需要发...
    有灵且美阅读 143评论 0 0