初级爬虫使用指北(5)--存储数据

目录

  1. 目的
  2. 将数据存储在本地 (二进制文件)
  3. 将数据存储在 表格/文本文件 中
  4. 完整代码
  5. 附加题

1. 目的

之前的教程对于获取到的数据,查看方式都是“直接打印到屏幕”——在屏幕上显示出来。像这样:

print(titles)

那么实际操作中我需要把指定数据存储下来,方便我多次使用。所以现在我先说明常见的数据类型,然后把不同的类型的数据存储到电脑本地。

字符串形式的数据

thisString = '这是字符串'

列表形式的数据

thisList = ['这是字符串',123,['这是列表中的列表中的字符串'],]

字典形式的数据

thisDict = {'这是“键”':'这是值', '这是钥匙':['这是锁'], 123:321}

下面我将把这些数据存储在文件中。


2. 将数据存储在本地:如果是给程序使用的情况

如果你想在其他Python程序中直接使用这些数据(列表/字典)。这里将使用 pickle包将希望存储的数据“原汁原味地”、以二进制的方式存储在硬盘中(简单地说就是你不能双击打开)。

拗口地说,一般程序中的数据都存在内存,程序结束这些数据就消失了;如果数据存在硬盘,这样它就像平时见到的文件一样,一直存在。

这是一种实现程序之间非立即传递数据的方法——今天程序A把一个列表保存在硬盘,明天程序B读取这个列表,在B自己的程序中使用(其实就是一个接力的过程)。

2.1 存储

现在说明如何将数据存储成二进制文件:

import pickle
file_path = '/User/Sixing/workplace/thisPickleFile' 
# 这是文件存储地址,其中 thisPickleFile 是文件名称

data = {'这是“键”':'这是值', '这是钥匙':['这是锁'], 123:321}

with open(pickle_path,'wb') as f:
    pickle.dump(data, f)

这样,在/User/Sixing 的 workplace 文件夹中就会出现 thisPickleFile 文件。这个文件是无法直接打开的,但是它能被其他Python程序使用。

2.2读取

然后说明如何在程序中读取二进制文件

import pickle
file_path = '/User/Sixing/workplace/thisPickleFile' 

with open(file_path,'rb') as f:
    data = pickle.load(f)

print(data) # 打印出来看看是不是它 :D

2.3 完整代码

文件 pickleWrite.py

import pickle
file_path = '/User/Sixing/workplace/thisPickleFile'

data = 

with open(pickle_path,'wb') as f:
    pickle.dump(data, f)

print('I write it')    

文件 pickleRead.py

import pickle
file_path = '/User/Sixing/workplace/thisPickleFile' 

with open(file_path,'rb') as f:
    targetFile = pickle.load(f)

print('I read it!')

现在我将打开终端运行这两个程序

注意 这里 > 是命令行的提示符, python3 是指令,用于“指示python解释器 执行python代码”

> python3 pickleWrite.py
> python3 pickleRead.py

运行的样子

存储程序变量在计算机本地-程序之间的接力

3. 将数据存储在 表格/文本文件 中:我想点开的情况

下面是一些存储/读取 数据 于 表格/文本 中的方法

3.1 存储表格(.csv文件)

存储一个列表

import csv
manyItems =  ['这','是','一句','被','分割','的','句子']
path = '/User/Sixing/workplace/thisCSV1.csv'

with open(path, 'a+',newline='',encoding='utf-8') as csvfile:
    writer = csv.writer(csvfile,quoting=csv.QUOTE_NONNUMERIC)
    for row in List:
        writer.writerow([row])

存储复合列表

import csv
path = '/User/Sixing/workplace/thisCSV2.csv'
manyRows = [['学号', '姓名', '性别'], ['1', 'Alfonso', 'M'], ['2', 'Arthur', 'F']]        

with open(path, 'a+',encoding='utf-8',newline='') as csvfile:
    writer = csv.writer(csvfile,quoting=csv.QUOTE_NONNUMERIC)
    for row in manyRows:
        writer.writerow(row)

3.2 存储到文本文件中

# 这里不用import 任何东西
text = '这是一段文字'
path = '/User/Sixing/workplace/thisText.txt'

with open(path,'w',encoding="utf-8") as f:
    f.write(text)

3.3 读取文本的内容

# 这里不用import 任何东西
path = '/User/Sixing/workplace/thisText.txt'
with open(path,'r',encoding= 'utf-8') as f
    docs = f.read()
    
# 可以打印到屏幕确定一下对不对
# print(docs) 

3.4 读取csv文件

import csv
path = '/User/Sixing/workplace/thisCSV1.csv'
data = [] # 初始化一个空的列表 来放置数据

with open(path, 'r', newline='',encoding='utf-8') as f:
    reader = csv.reader(f)        
    for row in reader:
        data.append(row[0])
        # 如果是复合列表则写
        # data.append(row)        
# 可以打印到屏幕确定一下对不对
# print(data)

下面我将把上次爬虫获取的数据存储到表格中


4. 完整代码

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
"""
Created on Thu Jul 26 23:26:34 2018

@author: alfonso
"""
# ------- obtain html data 指北(3)
import requests
url = 'http://www.baidu.com'
headers = {
    'User-Agent': 'Chrome/53.0.2785.143','Connection': 'keep-alive',
    'accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',}
html = requests.get(url, headers=headers)  # 这里我改变了一个变量名称
# ------- mining html 指北(4)
from bs4 import BeautifulSoup
soup = BeautifulSoup(html.content, 'lxml')
titles = soup.select(
    "div#wrapper > div#head > div.head_wrapper > div#u1 > a.mnav")
# titles  titles[0].get_text  titles[0].string  titles[0].get("href")

# -------将爬虫获取的数据存储到表格文件中-------
import csv # 引入

data = []
for title in titles: # 取出 内容:链接
    data.append([title.string,title.get("href")])

path = '/Users/alfonso/workplace/thisCSV2.csv'

with open(path, 'a+',encoding='utf-8',newline='') as csvfile:
    writer = csv.writer(csvfile,quoting=csv.QUOTE_NONNUMERIC)
    for row in data:
        writer.writerow(row)

开启Spyder

请开启你的spyder

运行,并打开.csv文件查看(Mac上使用Number,Windows上使用Excel)

要被number丑哭了.jpg

5. 附加题

  • python2存储的二进制文件 不一定能被 python3读取。个人建议使用python3,没别的,就是喜欢赶潮流
  • 如果开始看不懂了,请一定要在 Head First in Python 上找答案,然后再问我
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 215,012评论 6 497
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,628评论 3 389
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 160,653评论 0 350
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,485评论 1 288
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,574评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,590评论 1 293
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,596评论 3 414
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,340评论 0 270
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,794评论 1 307
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,102评论 2 330
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,276评论 1 344
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,940评论 5 339
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,583评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,201评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,441评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,173评论 2 366
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,136评论 2 352

推荐阅读更多精彩内容