python大数据-爬取赶集转转商品信息10万大数据

一、目标

爬取转转二手商品数据

二、 设计工作流程

  1. 手绘工作流程,首先应从首页获得所有大类目链接。再从某大类里获取所有商品的链接,并写出第一个相关函数,对应爬虫一,对应数据库文件一
  2. 编写获得具体商品信息的函数,对应爬虫二,对应数据库文件二
  3. 爬虫一获得链接并存储至数据库一,爬虫二从数据库一获取链接,将所有链接对应商品的信息保存至数据库二。

三、 具体步骤

1. 新建项目,获取所有类目链接

新增文件 channel_extract.py

import requests
from bs4 import BeautifulSoup
start_url = 'http://bj.ganji.com/wu/'

def get_category_urls(start_url):
    wb_data = requests.get(start_url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    part_category_urls = soup.select('div.main-pop dt a')  # 此变量生成一个字典的集合,无法使用的,当我们通过for in 时,会调出单独的字典,再使用字典函数get()等等

    for part_category_url in part_category_urls:
        category_url =  'http://' + start_url.split('/')[2] + str(part_category_url.get('href'))
        print(category_url)

#get_category_urls(start_url)

category_url_list = '''
http://bj.ganji.com/shouji/
http://bj.ganji.com/shoujipeijian/
http://bj.ganji.com/bijibendiannao/
http://bj.ganji.com/taishidiannaozhengji/
http://bj.ganji.com/diannaoyingjian/
...................... '''

2. 爬取商品链接及商品具体信息

新建文件page_parsing.py

import requests
from bs4 import BeautifulSoup
import time
import pymongo

client = pymongo.MongoClient('localhost', 27017)
ganji1 = client['ganji1_db']
item_url_list = ganji1['item_url_list_db']  # 存储所有商品的链接
item_info = ganji1['item_info_db']  # 存储商品的详细信息

#=========获取一个分类下的所有商品链接=========#
def get_item_urls_from(category, pages):
    category_url = '{}o{}/'.format(category, str(pages))
    wb_data = requests.get(category_url)
    time.sleep(1)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    part_item_url1 = soup.select('tr.zzinfo.jz td.t a')  # 通过这3行代码,清除了链接中的商家商品,剩余均为个人商品
    part_item_url2 = soup.select('td.t a')
    part_item_url = list( set(part_item_url2) - set(part_item_url1) )
    if soup.find('td','t'):
        for i in part_item_url:
            item_url = i.get('href').split('?')[0]
            item_url_list.insert_one( {'url':item_url} )
            print(item_url)
        else:
            pass  # 通过这个判断式来判断爬取翻页到头时自动停止,td t 是商品的标题元素,没它就证明该页面没商品了

#get_item_urls_from('http://bj.ganji.com/shouji/',1)

#=========获取一个商品的详情=========#
def get_item_info(url):
    wb_data = requests.get(url)
    if wb_data.status_code == 404:  # status_code 是requests 自带的一个方法,在一开始的时候检测网页是否有效存在
        pass
    else:
        try:
            soup = BeautifulSoup(wb_data.text, 'lxml')
            data = {
                'title': soup.title.text,
                'price':soup.select('span.price_now i')[0].text,
                'area':  soup.select('.palce_li i')[0].text,
                'url': url
            }
            item_info.insert_one(data)
            print(data)
        except AttributeError:
            pass
#get_item_info('http://zhuanzhuan.ganji.com/detail/923140825311903756z.shtml')

3. 新建运行主程序main.py

from multiprocessing import Pool
from page_parsing import get_item_urls_from
from page_parsing import get_item_info
from page_parsing import item_url_list
from page_parsing import item_info
from channel_extract import category_url_list

#=============断点续传-防止程序中断===============#
db_urls = [ item['url'] for item in item_url_list.find() ]  # 从数据库中find字典元素,用item调用出key 'url'对应的value,也就是网址,并形成列表
index_urls = [ item['url'] for item in item_info.find() ]
x = set(db_urls)
y = set(index_urls)
rest_of_urls = x - y

def get_all_urls_from(category):    #  获得所有链接
    for i in range(1,5):
        get_item_urls_from(category,i)

def get_all_item_info(url):    #  获得所有详情页
    for i in rest_of_urls:
        get_item_info(i)

if __name__=='__main__':
    # =============获取所有的链接==============#
    # pool = Pool(processes= 4)
    # pool.map(get_all_urls_from, category_url_list.split())  # split()会将长字符串变成一个 列表,map直接从列表里依次拿元素
    # pool.close()
    # pool.join()
#================获取所有商品的详情=================#
    pool = Pool(processes= 4)
    pool.map( get_all_item_info,  rest_of_urls )
    pool.close()
    pool.join()

4. 建立监控程序 counts.py

import time
from page_parsing import item_url_list
from page_parsing import item_info

while True:
    time.sleep(1)
    print(item_url_list.find().count())
    print(item_info.find().count())

5. 忽略报错功能(防止程序中断)

def try_to_make(ass):
    try:
        print(1/ass)
    except (ZeroDivisionError,TypeError):
        print('ok~')
try_to_make('0')
#  如上,通过 try except 实现忽略错误,可添加在正常程序中,这里只是示范(重要程序有错必究,不能忽略的)

6. 运行

打开终端,开启3个窗口,切换到程序文件夹中,第一个窗口输入mongod,mongo,好了,mongo已开启
第二个窗口输入 python3 counts.py
第三个窗口输入python3 main.py
好了,开始抓取数据了,成功

运行截图
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,293评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,604评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,958评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,729评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,719评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,630评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,000评论 3 397
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,665评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,909评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,646评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,726评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,400评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,986评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,959评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,197评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,996评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,481评论 2 342

推荐阅读更多精彩内容