__author__ = 'Lee'
from bs4 import BeautifulSoup
import requests
import time
url = 'https://bj.lianjia.com/zufang/101101613377.html'
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36',
}
web_data = requests.get(url,headers=headers)
soup = BeautifulSoup(web_data.text,'lxml')
title = soup.title.text #房名
address = soup.select('div.zf-room > p > a')[0].text #地址
price = soup.select(' div.price > span.total')[0].text + '元'
area = (soup.select('div.zf-room > p ')[0].text).split(':')[-1]
home_url = url
print({'title':title ,
'address':address,
'price':price,
'area':area,
'home_url':home_url
})
python爬取链家租房之获取房屋页面的详细信息(房名,地址,房价,面积,url)
最后编辑于 :
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。
推荐阅读更多精彩内容
- 因为期末考试的缘故,本打算一个星期结束的爬虫,拖了很久,不过,也有好处:之前写的时候总是被反爬,这几天复习之余写了...
- 本文在有些需要解释说明的地方引用了知乎文章屌丝想买房……和Scrapy入门教程 本篇教程中将按照下列五步实现标题所...