Python爬虫学习笔记(二)

爬取多个url页面时常用到的方法:

1、定义get_page_link(函数):

page_link = []                 # <- 每个详情页的链接都存在这里,解析详情的时候就遍历这个列表然后访问就好啦~

def get_page_link(page_number):

       for each_numberinrange(1,page_number):                           # 每页24个链接,这里输入的是页码

                  full_url ='http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(each_number)

                  wb_data = requests.get(full_url)

                  soup = BeautifulSoup(wb_data.text,'lxml')

                  for link in soup.select('a.resule_img_a'):              # 找到这个 class 样为resule_img_a 的 a 标签即可

                           page_link.append(link)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • Spring Cloud为开发人员提供了快速构建分布式系统中一些常见模式的工具(例如配置管理,服务发现,断路器,智...
    卡卡罗2017阅读 135,582评论 19 139
  • 编译环境:python v3.5.0, mac osx 10.11.4 python爬虫基础知识: Python...
    掷骰子的求阅读 16,817评论 11 101
  • 今天,我们一家跟着读经班来到长泰孔子庙游学,讲解员姐姐和哥哥跟我们讲解说这个孔子庙的面积是73亩地,我当时就很疑惑...
    德之阅读 3,459评论 1 4
  • chapter 1: 如何创建版本库 初始化一个仓库 $ git init 添加文件到Git仓库的过程: $ gi...
    飞将军阅读 8,025评论 0 2
  • 01 王家卫的电影里说过,世间所有的相遇,都是久别重逢。 但是他没有说的是,不要轻易转身,因为往往一转身,就是一辈...
    衷曲无闻阅读 7,972评论 41 68