Python05-课时20,爬去58同城数据,level1.独立完成,搞定。

我自己独立完成了老师留的作业,很值得纪念。

import requests
from bs4 import BeautifulSoup
url = 'http://bj.58.com/pbdn/0/pn2/?PGTID=0d305a36-0000-1c2a-07bc-9768e5cf6d74&ClickID=2'
#上面的是个人链接。#从上往下写函数,先编写小函数,最后写大函数,然后调用前面的小函数

def get_info(url): #这是个局部函数,小函数,应该写在前面,方便后面调用。    #测试了,很好用,没问题。
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    cateagry = soup.select('#nav > div > span.crb_i > a')
    title = soup.select('h1.info_titile')
    price = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.price_li > span > i')
    area = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.palce_li > span > i')
    for cate,title2,price2,area2 in zip(cateagry,title,price,area):
        data={
            'cate':cate.get_text(),
            'title' : title2.get_text(),
            'price' : price2.get_text(),
            'area' : area2.text
        }
        print(data)
def get_all_links(url):
    wb_data = requests.get(url)
    soup = BeautifulSoup(wb_data.text, 'lxml')
    links=soup.select('#infolist > div.infocon > table > tbody > tr > td.t > a.t')
    for link in links:
        clink=link.get('href').split('?')[0]
        get_info(clink)

get_all_links(url) #执行函数。

    ```

这是第一阶段。能够独立完成了。

运行结果如下:

![Paste_Image.png](http://upload-images.jianshu.io/upload_images/2731375-cc7c7b764d048cb7.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 誉心老师在朋友圈里发了个关于前世是谁的一个小测试。测试结果她的前世是诗人,不管老师还是我们都觉得挺准的。 于是我也...
    幸福兜了一个圈阅读 226评论 0 0
  • 大家好,我叫刘东洋,是一位刚刚迈进大学门槛的男孩子。我对大学的理解不仅仅是出人才的地方,更是锻炼人的地方。这也是我...
    欧阳云路阅读 111评论 0 0
  • 【陈婷鼓励打卡第五天】 我想我疯啦!谢谢建明的话,让自己疯一疯吧,烦躁的情绪在心里上蹿下跳,就疯一把,烦躁的你随便...
    花花公主阅读 176评论 0 0