从小猪短租上批量爬取房源信息

一、作业目的

从小猪短租上爬取300+房源信息,单个页面的信息是酱紫的

二、作业代码

from bs4 import BeautifulSoup
import requests
import re

n = 1
urls = []
a_url = 'http://sh.xiaozhu.com/search-duanzufang-p' + str(n) + '-0/'
# 从主页上爬取指向房源的链接
while n < 15:
    homepage = requests.get(a_url)
    homepage_soup = BeautifulSoup(homepage.text, 'lxml')
    links = homepage_soup.find_all(href=re.compile("fangzi"))
    for link in links:
        a_link = link.get('href')
        urls.append(a_link)
    n += 1


def get_url(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    return soup


def get_data(soup):
    title = soup.select('.pho_info > h4:nth-of-type(1) > em')
    address = soup.select('.pr5')
    rent_money = soup.select('.day_l')
    image = soup.select('#curBigImage')
    owner_pic = soup.select('.member_pic > a > img')
    owner_id = soup.select('a.lorder_name')
    owner_gender = soup.select('.member_pic > div')

    gender = owner_gender[0].get('class')[0]

    def judge_gender(a_gender):
        if a_gender == 'member_ico1':
            return '女'
        else:
            return '男'

    data = {
        '标题': title[0].get_text(),
        '地址': address[0].get_text().replace('\n', '').replace(' ', ''),
        '租金': rent_money[0].get_text(),
        '图片': image[0].get('src'),
        '房东图片': owner_pic[0].get('src'),
        '房东昵称': owner_id[0].get_text(),
        '房东性别': judge_gender(gender)
    }
    return data

if __name__ == '__main__':
    j = 0
    for url in urls:
        soup = get_url(url)
        print(get_data(soup))
        j += 1
    print("总共获取了%d个房源的信息"%j)

运行结果

运行结果

三、作业小结

本次作业的难点在于如何批量获取指向房源信息的url集合,这些信息可以通过对网站结构的分析得知。
例如每一个页面会显示24个房源信息,而搜索也的展示url是这样的:

http://sh.xiaozhu.com/search-duanzufang-p(n)-0/ #其中n为1,2,3...
按照这种方式自动获取每个搜索页的链接,代码如下:

a_url = 'http://sh.xiaozhu.com/search-duanzufang-p' + str(n) + '-0/'

后面才知道可以使用格式化和列表解析式来描述,代码是这样的:

a_url=['http://sh.xiaozhu.com/search-duanzufang-p{}-0/'.format(str(i)) for i in range(1,15)]

我自己的方法获取的是单个搜索页的链接,而后面的方法获取的是多个搜索页的集合。


接下来就是使用bs4来解析这些搜索页,从中提取出包含有房源信息的url,通过对符合条件的url进行观察可以发现,这些url里都包含fangzi这个字符串,所以使用正则表达式来匹配满足要求的url并通过get()方法,提取出href后面的链接,保存到一个列表里。

while n < 15:
    homepage = requests.get(a_url)
    homepage_soup = BeautifulSoup(homepage.text, 'lxml')
    links = homepage_soup.find_all(href=re.compile("fangzi"))
    for link in links:
        a_link = link.get('href')
        urls.append(a_link)
    n += 1

接下来只需要从集合了url的列表里提取并解析每一个url,然后使用上一个作业中提取信息的方法,整合这些信息即可。
更进一步的话可以使用某种数据库来存储这些数据,具体怎样实现还有待后面的学习。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容