My Projects 01: scrapy spider 爬取小电影

前言

scrapy是一个python的爬虫框架,开始接触的时间大概是6-21,项目完成是7-06 即是说从接触到能稍微使用一共花费了15天.期间还稍微接触了一下python3 urllib library, pySpider, 以及phantomJS.

这个项目主要是为了下载小电影:读取番号列表文件,通过scrapy从bt下载站上下载对应的bt链接,最后通过transmission-remote导入pi上的transmission进行下载.

一开始选择的爬取对象是 btso.pw,可是经验不足推测不出它的反爬虫策略,request中加入user-agent和referer也都一直返回403错误,只好换了一个网站 runbt 爬取,美中不足的是runbt的资源没有btso的多 :(

ps:
第二天我在偶然间看到知乎上一个差不多的问题最终解决了的爬取btso的问题,关键依然在于头部,头部的信息要完整才能获取数据 : D, 成功之后就因为爬取数据太快被封ip了...爬虫的水果然是很深啊

收获清单

  1. python2.x的一些语法:
  • scrapy框架使用的是python2.x

  • python2的编码问题: encode 与 decode

  • os 与 subprocess 库的使用

  1. 对scrapy框架的基本认知
  • item, spider, pipeline, setting
  1. 网页结构分析:
  • chrome开发者工具的使用

  • 基本的xpath写法

  1. 一些关于爬虫的知识
  • 反反爬虫之request头部的伪装(user-agent, referer)
  1. 意外的收获
  • 接触了python3的urllib library

  • 一个文本浏览器phantomJS

参考资料

  1. scrapy官方文档

  2. 阮一峰的xpath教程

  3. 爬虫与反爬虫

  4. python2的中文编码问题

  5. scrapy 爬取豆瓣实例:关注spider写法即可

  6. transmission的操作文档

  7. PhantomJS官网

配置开发环境

安装scrapy

  1. 具体步骤见scrapy官方文档

  2. 我遇到的问题

  1. 使用pip install softwareName会失败.

解决办法:

sudo -H pip install

参考capaj同志的回答 :

https://github.com/donnemartin/gitsome/issues/4

使用scrapy

  1. 注意返回类型

python2.7中,字符的处理是基于ascii字符的
所以如果使用f.write(s)写入一个unicode字符,程序会报错

#在python shell中运行
s = u'尼玛'
s
u'\u5c3c\u739b'
print(s)
尼玛
f.write(s)
#假设f是一个ifstream
#程序会报错
#此时应该使用encode('utf-8')
f.write(s.encode(utf-8))
response.xpath('//title/text()').extract()
#返回的是包含字符串的 list
注意scrapy中函数返回的数据

运行scrapy

在terminal终端中运行


scrapy -h 查看选项

info scrapy 查看详细使用手册

源代码

Link spider 代码

import scrapy
import os

path = './downloading/'
targetPath = './uncatch/'
urlPath = 'https://btso.pw/search/'

def getPhotoList():
    temp = os.listdir(path)
    photoList = []
    for t in temp:
        two = t.split('.')
        photoList.append(two[0])
    return photoList


class linksSpider(scrapy.Spider):
    name = 'btso'
    urls = getPhotoList()
    headers = {
            'Accept':'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8',
            'Accept-Encoding':'gzip, deflate, br',
            'Accept-Language':'zh-CN,zh;q=0.8,ja;q=0.6,en;q=0.4',
            'Cache-Control':'max-age=0',
            'Connection':'keep-alive',
            'Referer':'https://btso.pw/search/',
            'Upgrade-Insecure-Requests':'1',
            'User-Agent':'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/59.0.3071.115 Safari/537.36'
         }


    def start_requests(self):
        for url in self.urls:
            yield scrapy.Request(url=urlPath + url, headers = self.headers, callback=self.linksParse)

    def linksParse(self, response):
        s = response.xpath('//div[@class="container"]/div[@class="data-list"]/div[@class="row"]/a[1]/@href').extract()
        with open('links.txt', 'a') as f:
            temp = s.split('/')
            f.write(temp[6] + '\n')

importLinks

# importLinks.py, 读取links.txt, 调用transmission-remote导入transmission
#!/usr/bin/python
# -*- coding: utf-8 -*-

import os
import subprocess

f = open('links.txt', 'r')
if (not f):
    print("Magnet link dosen't exists")
    exit()

list = f.readlines()
for l in list:
    if (not l == '\n'):
        temp = 'transmission-remote -a ' + l
        subprocess.call(temp, shell=True)


f.close()

总结

这似乎是我第一个真正完成了的项目,改进的空间当然是大大的有,但至少成功的爬到了数据,也成功地导入了transmission下载.当然缺点也是有的:功能不够集成,操作有些繁复.
scrapy真的是很强,很多方面还没又涉及到,比如pipeline,middlewares.这些改进,就留到version2再说吧!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,616评论 6 492
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,020评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,078评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,040评论 1 285
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,154评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,265评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,298评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,072评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,491评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,795评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,970评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,654评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,272评论 3 318
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,985评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,223评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,815评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,852评论 2 351

推荐阅读更多精彩内容