Python 爬虫实战计划:第一周第三节作业

第三节:爬取小猪短租租房信息
要求:
1. 爬取详情页面内的:
标题,地址,租金,第一张房源图片链接,房东图片链接,房东姓名,房东性别。
2.爬取每页的所有租房详情信息:
总13页,共300条租房信息。
3.保存爬取的租房信息到文本文件中,如下


image.png

代码如下:

def get_html(url):
    """获得html源码"""
    headers = {
        'User-Agent':('Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko)'
                      'Chrome/54.0.2840.87 Safari/537.36')
    }
    response = requests.get(url,headers=headers)
    response.encoding = 'utf-8'  # 设置网页编码,responses会自动编码解码对网页,一般不需要设置编码,如出现乱码,则需要手动设置编码
    return response.text # text返回响应的页面的源码,unicode编码格式,content 返回的是二进制响应内容的字符串

def is_sex(sex):
    """性别转换
        性别女的 标签class属性 = member_girl_ico
        性别男的 标签class属性 = member_boy_ico
        class为空,则用户没有设置性别
        返回用户性别字符串 男or女or未知性别
    """
    lorder_sex = u'未知性别'
    if sex:                 # 有些房东没有设置性别,所以需要先判断一下
        if 'girl' in sex:
            lorder_sex = u'女'  # response.text返回的是unicode编码的字符串,所以编码要统一都设为unicode,避免乱码
        elif 'boy' in sex:
            lorder_sex = u'男'
    return lorder_sex

def details_info(url):
    """获得租房页面详情信息,标题,地址,价格,房租第一张图片,房东照片,房东姓名,房东性别
        返回储存详情信息的字典"""
    html = get_html(url)
    soup = BeautifulSoup(html, 'lxml')
    #get('class')返回的是一个列表包含当前标签class属性的所有值,而不是字符串
    lorder_sex_span = soup.select('div.w_240 > h6 > span')[0].get('class')[0]
    address = soup.select('div.pho_info > p > span.pr5') #有些可能每没有地址
    lorder_sex = is_sex(lorder_sex_span)

    info = {
        'title':soup.select('div.pho_info > h4 > em')[0].get_text(),
        'address':address[0].get_text().strip() if address else '',
        'pice':soup.select('div#pricePart div.day_l > span')[0].get_text(),
        'home_img':soup.select('img#curBigImage')[0].get('src'),
        'lorder_img':soup.select('div.member_pic > a > img')[0].get('src'),  # 房东图片
        'lorder_name':soup.select('div.w_240 > h6 > a.lorder_name')[0].get_text(),
        'lorder_sex':lorder_sex
    }
    #跟踪输出每一页的url到控制台
    print '正在爬取详情页为 ---- {}'.format(url)
    return info

def home_sorce(url):
    """获得当前页面的所有房源链接
       返回一个list"""
    html = get_html(url)
    soup = BeautifulSoup(html, 'lxml')
    page_list = soup.select('div#page_list > ul > li > a')
    #使用字典 url做key 去除重复href,字典是无序的,但url的顺序并不重要,所有用字典是比较合适的
    page_url_dict = {page.get('href'):'' for page in page_list}
    return page_url_dict

def save_to_text(datas):
    """将信息保存到当前文件夹内的文本文件中"""
    with open('details.text','w') as f:
        for data_dict in datas:
            for key,value in data_dict.iteritems():
                info = '{} -- {} \n'.format(key,value.encode('utf-8')) #以utf-8编码写入文本文件中
                f.write(info)
            f.write('\n')
            f.write('------'*5)
            f.write('\n\n')

def main():
    """主函数,启动爬虫"""
    #拼接每一页的url
    url_pattern = 'http://bj.xiaozhu.com/search-duanzufang-p{}-0/'
    urls = [url_pattern.format(index) for index in range(1,14)]

    page_url_dict = {}      #使用字典 url做key 去除重复url,
    for url in urls:        #获得每页中的房屋信息url
        page_url_dict.update(home_sorce(url))
    print '总共 {} 条房源url'.format(len(page_url_dict))

    #获得每个房屋的详情信息
    details_list = [details_info(page_url) for page_url in page_url_dict.keys()]
    print '总共 {} 条房源信息'.format(len(details_list))

    save_to_text(details_list)    #保存房源信息到文本文件


if __name__ == '__main__':
    print '启动爬虫'
    main()
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 220,458评论 6 513
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 94,030评论 3 396
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 166,879评论 0 358
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 59,278评论 1 295
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 68,296评论 6 397
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 52,019评论 1 308
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,633评论 3 420
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 39,541评论 0 276
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 46,068评论 1 319
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 38,181评论 3 340
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 40,318评论 1 352
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,991评论 5 347
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 41,670评论 3 331
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 32,183评论 0 23
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 33,302评论 1 272
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 48,655评论 3 375
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 45,327评论 2 358

推荐阅读更多精彩内容