Beautiful Soup简介
BeautifulSoup是python的一个库,最主要的功能是从网页抓取数据(on quick-turnaround screen scraping projects)。
官方描述的3个主要特征为:
- Beautiful Soup provides a few simple methods and Pythonic idioms for navigating, searching, and modifying a parse tree: a toolkit for dissecting a document and extracting what you need. It doesn’t take much code to write an application.
- Beautiful Soup automatically converts incoming documents to Unicode and outgoing documents to UTF-8. You don’t have to think about encodings, unless the document doesn’t specifyan encoding and Beautiful Soup can’t autodetect one. Then you just have to specify the original encoding.
翻译过来就是:
- Beautiful Soup提供一些简单的、python式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
- Beautiful Soup自动将输入文档转换为Unicode编码,输出文档转换为utf-8编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。
Beautiful Soup已成为和lxml、html6lib一样出色的python解释器,为用户灵活地提供不同的解析策略或强劲的速度。
Beautiful Soup sits on top of popular Python parsers like lxml and html5lib, allowing you to try out different parsing strategies or trade speed for flexibility.
Beautifulsoup安装(windows)
- 1、到http://www.crummy.com/software/BeautifulSoup/ 网站 上下载,最新版本是4.3.2。
- 2、下载完成之后需要解压缩,假设放到C:/python27/下。
- 3、"运行cmd"---"cd c:\python27\beautifulsoup4-4.3.2",切换到c:\python27\beautifulsoup4-4.3.2目录下(根据自己解压后所放的目录和自己的版本号修改)。
- 4、运行命令:
- setup.py build
- setup.py install
- 5、python命令下 import bs4,没报错说明安装成功。
新版本的beautifulsoup官方已经将beautifulsoup改名为bs4了。所以不能再使用这样的语句:
from beautifulsoup import beautifulsoup
而应该是:
from bs4 import beautifulsoup
【坑爹啊!】,因为这个折腾了一个多小时。
一个查询某一个 NS 服务器的所有域名的爬虫
通过搜索可找到 sitedossier.com 这个网站可以提供域名服务器的信息。那么就要写个爬虫来抓查询结果了
import urllib2
import re
import argparse
from bs4 import BeautifulSoup
class Crawler(object):
def __init__(self, args):
self.ns = args.ns
def _getSoup(self, url):
req = urllib2.Request(
url = url,
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.4 (KHTML, like Gecko) Chrome/22.0.1229.94 Safari/537.4'}
)
content = urllib2.urlopen(req).read()
return BeautifulSoup(content)
def _isLastPage(self, soup):
if not soup.find(text=re.compile("End of list.")):
return False
else:
return True
def _getItem(self, soup):
itemList = soup.findAll('li')
for item in itemList:
print item.find('a').string
def _getNextPage(self, soup):
nextUrl = 'http://www.sitedossier.com' + soup.ol.nextSibling.nextSibling.get('href')
self.soup = self._getSoup(nextUrl)
def start(self):
url = 'http://www.sitedossier.com/nameserver/' + self.ns
self.soup = self._getSoup(url)
self._getItem(self.soup)
while not self._isLastPage(self.soup):
self._getNextPage(self.soup)
self._getItem(self.soup)
def main():
parser = argparse.ArgumentParser(description='A crawler for sitedossier.com')
parser.add_argument('-ns', type=str, required=True, metavar='NAMESERVER', dest='ns', help='Specify the nameserver')
args = parser.parse_args()
crawler = Crawler(args)
crawler.start()
if __name__ == '__main__':
main()
用法:
$ python crawler_ns.py -ns dns.baidu.com
保存结果到文件:
$ python crawler_ns.py -ns dns.baidu.com >> result.txt