#!/usr/bin/env python
# -*- coding: utf-8 -*-
import json
import re
import urllib2
import sys
reload(sys)
sys.setdefaultencoding('utf-8')
url='https://rate.tmall.com/list_detail_rate.htm?itemId=41464129793&sellerId=1652490016¤tPage=1'
cont=urllib2.urlopen(url).read()
rex=re.compile(r'\"rateList\":(\[.*?\])\,\"searchinfo\"')
content=rex.findall(cont)[0]
con=json.loads(content, "gbk")
count = len(con)
print len(con)
# count=len(con['rateDetail']['rateList'])
# print count
for i in xrange(count):
print str(i) + " " + con[i]['rateContent']
Python自动爬取淘宝网评论
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
- 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
- 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
- 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
推荐阅读更多精彩内容
- 爬得我真是累,我靠,还不如其他小网站一个scrapy爬,爽得一批,话说,不过反爬虫的网站应该是很多很多了 真心爬得忧伤
- 这篇文章是Python爬虫的第二篇,目标是新浪微博的评论人的性别,地区,等信息,写的不好的地方请指正。 先来分析一...
- 这篇文章是Python爬虫的第一篇,目标是新浪微博的评论,本篇只实现了抓取评论者的id或个性域名,评论,用户名,详...