[Scrapy-3] 理解Scrapy的Response的数据结构

我们知道,Scrapy最终给到我们的是response对象,了解了response的数据结构,我们就能更好的解析利用response数据。

先来理解Response这个类

通过Response对象本身可以直接访问的对象或方法有:

def __init__(self, url, status=200, headers=None, body=b'', flags=None, request=None):
    self.headers = Headers(headers or {})
    self.status = int(status)
    self._set_body(body)
    self._set_url(url)
    self.request = request
    self.flags = [] if flags is None else list(flags)

@property
def meta(self):
    try:
        return self.request.meta
    except AttributeError:
        raise AttributeError(
            "Response.meta not available, this response "
            "is not tied to any request"
        )

url = property(_get_url, obsolete_setter(_set_url, 'url'))

body = property(_get_body, obsolete_setter(_set_body, 'body'))

从上面的代码可以知道,通过Response对象可以直接访问的属性有headersstatusrequestmeta,meta即是属性也是方法, urlbody,以上可以直接获取内容,还有一些方法比如text()css()xpath(),在子类中实现可以使用。

看看Response的子类

Response
----TextResponse
--------HtmlResponse
--------XmlResponse

HtmlResponseXmlResponse两个类本身只是简单的继承了TextResponse,没有做任何实现,所以我们重点来看看TextResponse类。
TextResponse的主要是添加了一个新的构造函数,encoding。这个暂时还不能细致的理解,事实上对这个Python体系的编码都很晕,先放放吧。
TextResponse对父类的一些未实现的方法做了实现:

@property
def text(self):
    """ Body as unicode """
    # access self.encoding before _cached_ubody to make sure
    # _body_inferred_encoding is called
    benc = self.encoding
    if self._cached_ubody is None:
        charset = 'charset=%s' % benc
        self._cached_ubody = html_to_unicode(charset, self.body)[1]
    return self._cached_ubody

@property
def selector(self):
    from scrapy.selector import Selector
    if self._cached_selector is None:
        self._cached_selector = Selector(self)
    return self._cached_selector

def xpath(self, query, **kwargs):
    return self.selector.xpath(query, **kwargs)

def css(self, query):
    return self.selector.css(query)

一般情况下,我们爬取网页获取到的Response对象是HtmlResponse,从上面的源码我们可以知道,Scrapy的数组组织结构是Selector

从Html源解析数据一般有两种方式:

  • BeautifulSoup,这个类比较有名了,它对一些标记不规范的HTML也有很好的适应能力,但它最大的缺点就是--太慢了
  • lxml,这是一个xml解析库,当然也能用来解析html,lxml并不是Python的标准库,但是它有基于ElementTree的极具Python风格的API。

Scrapy的Selector是基于lxml构建的,所以在速度和解析精度上和lxml相似。

虽然lxml的语法很强大,能够处理很多其它的任务,但是在这里,Selector的语法就很简单,这也决定了Selector的解析方式。
Seelctor或者说Scrapy的数据对象有以下三种解析方式

  • xpath
  • css
  • re

这个从Selector的源码可以看出,不喜欢cssre(主要是太麻烦了,记得东西太多,每次用还要现学),我们数据解析的话就专门使用xpath,下一节就来好好学习学习xpath的语法。

def css(self, query):
    """
    Apply the given CSS selector and return a :class:`SelectorList` instance.

    ``query`` is a string containing the CSS selector to apply.

    In the background, CSS queries are translated into XPath queries using
    `cssselect`_ library and run ``.xpath()`` method.
    """
    return self.xpath(self._css2xpath(query))

发现个比较变态的,css底层实现也是先将css转成xpath。那就不需要多此一举了。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • scrapy学习笔记(有示例版) 我的博客 scrapy学习笔记1.使用scrapy1.1创建工程1.2创建爬虫模...
    陈思煜阅读 12,798评论 4 46
  • scrapy是python最有名的爬虫框架之一,可以很方便的进行web抓取,并且提供了很强的定制型,这里记录简单学...
    bomo阅读 2,175评论 1 11
  • Python版本管理:pyenv和pyenv-virtualenvScrapy爬虫入门教程一 安装和基本使用Scr...
    inke阅读 66,711评论 3 38
  • 2017年10月14日 多云到晴 熟悉的街道 走远 乡音 存在千里 背靠着疾驰的巴士 想着一句问候语 恭候多时 抱...
    鲜栗子阅读 226评论 0 0
  • 第十八讲何为异常:异常与否不过是一种人类的自觉,常常受‘社会规范、目标对象的个性、背景’等因素的影响; 目前心理学...
    小葵爱书阅读 2,645评论 1 17