【爬虫1】TED演讲

TED爬虫

这是沙特2016夏天斋月时候写的第一个爬虫TED_spider.py。写文章复习一下。

用到的库

抓取目标网址:https://www.ted.com/talks
sqlite3 数据库
BeautifulSoup 解析页面
urllib.request 发起请求

得到网页信息

urlopen得到网页源码:

def make_soup(url):
  html=urlopen(url).read()
  return BeautifulSoup(html,"lxml")#html to lxml
image.png

如上图用浏览器观察找到信息所在位置。

关键是用beautiful soup 精确选中你要提取的信息,需要对HTML和CSS的熟悉,对BS4的熟悉:https://www.crummy.com/software/BeautifulSoup/bs4/doc/index.zh.html

def get_talks(url):
  talks=make_soup(url).find("div","row row-sm-4up row-lg-6up row-skinny")# tag and class
  talk_links= [BASE_URL+h4.a["href"] for h4 in talks.findAll("h4","h9 m5")]#List Comprehensions
  #there is "posted rated" info on the index page
  return talk_links

数据库初始化

用数据库对得到的信息进行存储,这里用的sqlite,需要对sql和数据库的了解:

if os.path.exists("data/TED.db"):
    conn=sqlite3.connect("data/TED.db")
    cur=conn.cursor()
else:
    #建立数据库
    conn=sqlite3.connect("data/TED.db")
    #建立cursor
    cur=conn.cursor()
    cur.execute('''CREATE TABLE TED
    (
        ID INTEGER PRIMARY KEY AUTOINCREMENT,
        speaker CHAR,
        talk_name CHAR,
        talk_link TEXT,
        watch_times INT,
        place CHAR,
        length CHAR,
        month CHAR,
        brief_description TEXT,
        transcript TEXT,
        similar_topics TEXT
    );''')
    conn.commit()

然后就是流程代码,对所有演讲网页进行遍历,抓取信息,存入数据库。
接下来可以对数据进行一系列分析。

todo

  1. 提升速度,多进程。
  2. 了解scrapy
  3. 登录和反反爬虫
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 声明:本文讲解的实战内容,均仅用于学习交流,请勿用于任何商业用途! 一、前言 强烈建议:请在电脑的陪同下,阅读本文...
    Bruce_Szh阅读 12,788评论 6 28
  • 在上一篇中 , 我们构建了一个爬虫, 可以通过跟踪链接的方式下载我们所需的网页。 但是爬虫在下载网页之后又将 结果...
    枫灬叶阅读 1,973评论 0 5
  • 爬虫文章 in 简书程序员专题: like:128-Python 爬取落网音乐 like:127-【图文详解】py...
    喜欢吃栗子阅读 22,062评论 4 411
  • 33款可用来抓数据的开源爬虫软件工具 要玩大数据,没有数据怎么玩?这里推荐一些33款开源爬虫软件给大家。 爬虫,即...
    visiontry阅读 7,429评论 1 99
  • 窗前,钢筋混凝土的大厦屋下,孩童拍球的嬉戏声屋内,提成书写的急促声 点燃一根烟又熄灭又点燃一根烟再熄灭漫无目的地写...
    南瓜先生的故事阅读 313评论 0 0