爬虫学习分享(爬取豆瓣,微博微公益等数据)

最近做计算社会学的研究需要用到网络爬虫爬取一些数据,一开始打算用八爪鱼爬虫工具,后来发现这种爬虫工具不太稳定,那就自己从头学吧,以后说不定也能用的着,试着模仿了几个案例,其实背后的逻辑基本都是一致的,不同网站的结构可能不一样,不过对付一般的网站是没什么问题的。
使用的库:Csv+Request + Beautifulsoup

案例一:爬取豆瓣top250数据

要求:抓取top250豆瓣电影的名称、URL、得分、评价数。
详细代码及注释如下:

import csv 
import re
import requests
from bs4 import BeautifulSoup

要抓取的页面如下,观察一下页面的翻页规律

image.png

第一页:https://movie.douban.com/top250?start=0&filter=
第二页:https://movie.douban.com/top250?start=25&filter=
……
最后一页:https://movie.douban.com/top250?start=225&filter=
翻页规律:只需修改start即可,间隔为25

tips:抓取数据时,可以尝试先抓取一页的数据,成功的话加个循环代码即可
以第一页为例,观察网页的结构

url = 'https://movie.douban.com/top250?start=0&filter='
response = requests.get(url)
response.encoding = 'utf-8'
html = response.text
soup = BeautifulSoup(html,"lxml")   #用beautifulsoup解析网页
print(soup.prettify())  ## 结构化显示网页
image.png

观察可以发现要抓取的数据基本都在<div class="item">类名里

all_list = soup.find_all(class_='item') 
tag1 = all_list[0]
item_data = tag1.find(class_='pic')
movie_url = item_data.find('a')['href']    # 抓取电影的url
movie_name = item_data.find('img')['alt']  # 抓取电影的名称
item_info = tag1.find(class_='star')
info = tag1.find('div', attrs={'class': 'star'})   #通过 find_all() 方法的 attrs 参数定义一个字典参数来搜索包含特殊属性的tag
movie_people =info.find_all('span')[3].get_text()[:-3]    # 抓取观影人数
movie_score = info.find('span',attrs={'class':'rating_num'}).get_text()  #抓取评分

关于beautifulsoup的find() 和find_all()函数,建议参考beautifulsoup的中文文档:beautifulsoup的中文文档

会抓一页的数据,全部的数据自然不在话下
所有代码如下:

## 用csv模块创建一个csv文件
with open('C:/Users/Carman/Desktop/top250_movie.csv','w',encoding='utf_8_sig') as outputfile:
    writer = csv.writer(outputfile)
 outputfile.write("movie_num#movie_name#movie_people#movie_score#movie_url\n")  ## 注意缩进,不知道为什么简书上缩进不了
        #开始循环获取每一个页面的url
        for list in range(10):
             movies_content = requests.get(top250_url.format(list*25)) 
             movies_html = movies_content.encoding = 'utf-8'
             soup = BeautifulSoup(movies_html,'html.parser')
             all_list = soup.find_all(class_='item') 
          #在每一个页面里面循环,抓取名称、URL、得分、评价数    
             for item in all_list:
                  item_data=item.find(class_='pic')
                  movie_url = item_data.find('a')['href']
                  movie_name = item_data.find('img')['alt']
                  item_info = item.find(class_='star')
                  info = item.find('div', attrs={'class': 'star'})  
                  movie_people =info.find_all('span')[3].get_text()[:-3]
                  movie_score = item_info.find('span',attrs={'class':'rating_num'}).get_text()
                  movie_num = movie_num+1 
        ## 写入csv文件
                  outputfile.write('{}#{}#{}#{}#{}\n'.format(movie_num,movie_name,movie_people,movie_score,movie_url))

ok,读取出来是这个样子:

import numpy as np
import pandas as pd
df = pd.read_csv('C:/Users/Carman/Desktop/top250_movie.csv',sep='#',encoding='utf-8')  #'utf-8'解码
df.head()
image.png

案例2:抓取微博微公益数据

image.png

如图,目标在于抓取每个项目的名称,分类,目标金额,完成率和转发数。
完整代码如下:

import csv
import re
import requests
from bs4 import BeautifulSoup
import urllib.request as urlrequest
import warnings
warnings.filterwarnings("ignore")
url = 'https://gongyi.weibo.com/list/personal?on_state=3&donate_type=0&state=1&type=0&location=&title=&open=0&page={}'
## 用csv模块创建一个csv文件
with open('C:/Users/Carman/Desktop/weibo_charity1.csv','w',encoding='utf_8_sig') as outputfile:
    writer = csv.writer(outputfile)
    outputfile.write("title#kind#organization#target_money#fill_rate#forward\n")
    #开始循环获取每一个页面的url
    for list in range(1,200): 
        response = requests.get(url.format(list))
        response.encoding = 'utf-8'
        html= response.text
        soup = BeautifulSoup(html,"lxml")
        all_list = soup.find_all(class_ = 'view_info')
     #在每一个页面里面循环,抓取名称、种类、组织、目标金额、完成率、转发
        for item in all_list:
            title_data = item.find(class_='title')
            title = title_data.get_text()[:-6]
            kind = title_data.get_text()[-5:-1]
            org_data  = item.find(class_ ='project_info W_linkb')
            organization = org_data.find_all('a')[1].get_text()
            num = item.find_all(class_ = 'num')
            target_money = num[0].get_text()
            fill_rate = num[1].get_text().strip() 
            forward_people = item.find_all('span')
            forward_people = forward_people[2].get_text()
            forward_people = forward_people.replace('\t', '')
            forward_people = forward_people.replace('\n', '')          
    ## 写入文件
            outputfile.write('{}#{}#{}#{}#{}#{}\n'.format(title,kind,organization,target_money,fill_rate,forward_people))

最后读取的数据格式如下:

import numpy as np
import pandas as pd
data = pd.read_csv('C:/Users/Carman/Desktop/weibo_charity1.csv',sep='#',encoding='utf-8',error_bad_lines=False)  #'utf-8'解码
data.head()
image.png

感想:大数据时代,现在即使做社科类的研究也越来越需要数据,对待技术不应该恐惧,这个世界上大部分的事情只要肯去做都是能做好的,另外一项技能学会了一定要找机会经常使用,否则过段事件忘了又要重头在学,有点得不偿失了,我经常犯这一错误,需要引以为戒。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,185评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,445评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,684评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,564评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,681评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,874评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,025评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,761评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,217评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,545评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,694评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,351评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,988评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,778评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,007评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,427评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,580评论 2 349

推荐阅读更多精彩内容