python 实现抓取58同城二手物品信息

1 . 获取二手分类信息

我们首先要分析的网址是: http://bj.58.com/sale.shtml 首先我们要将所有的二手物品分类给获取下来:(这里解析网页用的是BeautifulSoup,此处不做过多的讲解,可以参考网上关于BeautifulSoup的教程)

base_url_mobile = 'http://m.58.com/bj'

# 解析得到所有的分类
def parse_channel_list():
    url = 'http://bj.58.com/sale.shtml'
    html = requests.get(url)
    soup = BeautifulSoup(html.text, 'lxml')
    items = soup.select('ul.ym-submnu > li > b > a')

    channel_urls = []

    for item in items:
        print(item)
        url = base_url_mobile + item.get('href') # base_url_mobile 
        channel_urls.append(url)

    content = '\n'.join(channel_urls)

    write_to_file(content)

def write_to_file(content):
    path = '{0}/{1}'.format(os.getcwd(), 'doc')
    if not os.path.exists(path):
        os.makedirs(path)
    file_path = '{0}/{1}.{2}'.format(path, '58samecity', 'txt')
    with open(file_path, 'a', encoding='utf-8') as f:
        f.write(content + '\n')
        print('写入成功', content)
        f.close()

这里我们就将所有的分类信息的url存入了文件 doc/58samecity.txt中。其中用到的 base_url_mobile ,因为移动端的数据结构相对来说更加的清晰一些,因此在下一步要处理的分类信息 我们采用了移动端的网页结构来进行解析。

以后,要获取所有的分类的url只需要调用下面的方法即可:

def get_channel_list():
    urls = []
    path = '{0}/{1}'.format(os.getcwd(), 'doc')
    file_path = '{0}/{1}.{2}'.format(path, '58samecity', 'txt')
    with open(file_path, 'r') as f:
        lines = f.readlines()
        for line in lines:
            urls.append(line.strip())

    # 去除重复
    urls1 = sorted(set(urls), key=urls.index)
    # print(urls1)

    return urls1

2 . 解析每个分类

1 . 获取该分类下的二手物品帖子列表

# 通过分类URL, 获取该分类下的所有发帖的url(此处用的是移动端的接口)
# @url 分类的url
# @pages 页码
def get_urls_mobile_from(url, pages):
    list_view = '{}/pn{}/'.format(url, str(pages))
    html = requests.get(list_view)
    soup = BeautifulSoup(html.text, 'lxml')

    if soup.find('.nobg'):   # 没有数据, 返回
        return

    list = soup.select('.asynInfo .zhuanzhuan > li > a')
    for li in list:
        href = li.get('href').split('?')[0]

        data = {
            'href' : href
        }

        url_pc = href.replace('m.', '')
        if url_pc == 'http://jump.zhineng.58.com/jump':
            continue
        parse_detail_from(url_pc)
        save_channel_to_mongo(data)
        sleep(1)

2 . 对列表中的每一条帖子进行详情解析:

def parse_detail_from(url):
    try:
        html = requests.get(url)
        soup = BeautifulSoup(html.text, 'lxml')
        print(soup.find('title').get_text())
        if soup.find('title').get_text() == '请输入验证码':
            print('操作太频繁了,需要用ip代理了')
        title = soup.select('.info_titile')[0].get_text()
        view = soup.select('.look_time')[0].get_text()[0:-3]
        area = soup.select('div.palce_li > span > i')[0].get_text().split('-')

        if len(area) == 2:
            area = area[1]
        elif len(area) == 1:
            area = area[0]
        else:
            area = '不明'

        cate = list(soup.select('div.breadCrumb.f12')[0].stripped_strings)

        good = {
            'url' : url,
            'title' : title,
            'view' : view,
            'area' : area,
            'cate' : cate
        }

        save_goods_to_mongo(good)

    except TimeoutException:
        parse_detail_from(url)

代码暂时未处理因频繁操作导致的需要验证的问题,这个问题我将在另一篇文章(利用代理ip解决因频繁操作造成的访问受限问题)进行详细的分析解答。

3 . 将北京同城二手物品分地区生成分析图表:#

Screen Shot 2018-03-15 at 3.33.37 PM.png

图表的生成 用到了 jupyter notebook, 详情请查看我的另一篇文章:jupyter 的安装与简单使用

另外此工程的所有代码将在下面附上:

点这里:源码

此篇到此结束,希望多多提意见,共同学习!
同时,此系列文章也会不定期更新哦!~~

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,163评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,301评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,089评论 0 352
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,093评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,110评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,079评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,005评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,840评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,278评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,497评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,667评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,394评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,980评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,628评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,796评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,649评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,548评论 2 352

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 134,651评论 18 139
  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,700评论 6 28
  • 工作这么多年一直想学习一下爬虫技术,各种尝试之后发现学习的最好方式就是直接开干:那就找一个想爬的东西开始爬啊!从模...
    废柴社阅读 2,520评论 6 9
  • 算来,我人生关于喝酒的启蒙老师是我的外婆。因为自小在外婆家长大,从有记忆起,就记得外婆会在闲暇和节日期间,喝上一点...
    金俊臻阅读 386评论 0 0
  • 烈日炎炎,马路被晒得发烫,太阳射出了耀眼的光芒,蓝蓝的天空中飘着几朵浮云,知了叫着:“热啊!热啊!” 今天...
    姚辰辰阅读 304评论 0 1