我自己独立完成了老师留的作业,很值得纪念。
import requests
from bs4 import BeautifulSoup
url = 'http://bj.58.com/pbdn/0/pn2/?PGTID=0d305a36-0000-1c2a-07bc-9768e5cf6d74&ClickID=2'
#上面的是个人链接。#从上往下写函数,先编写小函数,最后写大函数,然后调用前面的小函数
def get_info(url): #这是个局部函数,小函数,应该写在前面,方便后面调用。 #测试了,很好用,没问题。
wb_data = requests.get(url)
soup = BeautifulSoup(wb_data.text, 'lxml')
cateagry = soup.select('#nav > div > span.crb_i > a')
title = soup.select('h1.info_titile')
price = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.price_li > span > i')
area = soup.select('body > div.content > div > div.box_left > div.info_lubotu.clearfix > div.info_massege.left > div.palce_li > span > i')
for cate,title2,price2,area2 in zip(cateagry,title,price,area):
data={
'cate':cate.get_text(),
'title' : title2.get_text(),
'price' : price2.get_text(),
'area' : area2.text
}
print(data)
def get_all_links(url):
wb_data = requests.get(url)
soup = BeautifulSoup(wb_data.text, 'lxml')
links=soup.select('#infolist > div.infocon > table > tbody > tr > td.t > a.t')
for link in links:
clink=link.get('href').split('?')[0]
get_info(clink)
get_all_links(url) #执行函数。
```
这是第一阶段。能够独立完成了。
运行结果如下:
![Paste_Image.png](http://upload-images.jianshu.io/upload_images/2731375-cc7c7b764d048cb7.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)