mysql,mongodb,redis在windows应用

1.mysql

启动服务器
net start mysql
关闭服务器
net stop mysql
登录mysql(连接mysql)
mysql -u root -p
然后输入密码
如果要登录远程数据库,1.需要远程数据库给予权限
远程计算机进入mysql环境输入:
grant select on 数据库.* to 用户名@登录主机 identified by '密码'
例如:grant select,insert,update,delete on zhaogao.qin to root@192.168.1.103 identified by '123';
注【允许:主机为192.168.1.103的电脑以用户root,密码123登录,并在zhaogao库下的qin表中执行增删查改】
2.然后登录,代码如下
mysql -h 192.168.1.103 -uroot -p123
退出mysql
exit

2.mongodb

启动服务器
net start mongodb
关闭服务器
net stop mongodb
登录mongodb
mongo
退出mongodb
exit
远程连接参照如下:
https://www.cnblogs.com/kimkat/p/9192785.html

3.redis

https://www.cnblogs.com/panter/p/6801210.html
(1)redis在windows下原本是不支持的,后来开发人员开发了一个redis在windows下的配置文件,于是redis可以在windows下应用,但每次使用需要将配置文件添加在启动服务器命令后面
(2)redis原本只能本机链接和设置键值,通过配置其他计算机也可以链接和设置键值。找到redis.windows.conf文件,该文件就是redis在windows下能够使用的重要文件,除了命令中添加该文件,配置允许远程链接也是在该文件。

#bind 127.0.0.1                            注释这行    第56行左右
protected-mode no                      将yes修改为no           第75行左右

3.启动服务器

redis-server.exe "F:\Redis\redis.windows.conf"
启动之后该cmd窗口不能关闭,如果关闭窗口,服务器也关闭。

4.登录redis数据库,在新开启的cmd窗口下输入以下命令

redis-cli         回车
出现127.0.0.1:6379>输入ping
得到PONG
证明登录成功
其他用户想要链接可以输入:redis-cli -h IP地址
redisdesktopmanager链接redis参照该网站https://www.cnblogs.com/hltswd/p/6223824.html

5.redis在scrapy中的分布式部署

核心思想:将scrapy中的调度器放到公共的redis中,该redis既是服务端也是客户端,其他人链接该redis,共同完成任务。
实现方法:基于scrapy的组件scrapy-redis来实现

pip install scrapy-redis

scrapy-redis主要实现了以下几步:(1)调度器放到了redis中
(2)实现了一个管道,保存到redis中
(3)重写了两个类Spider(RedisSpider),CrawlSpider(RedisCrawlSpider)

配置代码 https://github.com/rmax/scrapy-redis

按照example-project中example进行配置即可,若你配置的模板是crawlspider选择mycrawler_redis.py爬虫文件;若你配置的模板是spider选择myspider_redis.py文件夹

配置完之后,所有人进入项目中的spiders下的cmd中输入启动指令:
scrapy runspider zixi.py
你会发现程序运行一会卡住啦,因为没有起始的url,接下来添加起始的url
具有服务端的一方到redis客户端输入指令:
lpush zixispider:start_urls 'http://699pic.com/people.html'

注【zixi为爬虫文件名字】

☺成功实现分布式部署☺

配置文件如下:

from scrapy.spiders import Rule
from scrapy.linkextractors import LinkExtractor

from scrapy_redis.spiders import RedisCrawlSpider


class MyCrawler(RedisCrawlSpider):
    """Spider that reads urls from redis queue (myspider:start_urls)."""
    name = 'mycrawler_redis'
    
    # start_urls 这个列表,将起始的url放入到redis_key这个队列里面即可
    # 队列  lpush
    redis_key = 'mycrawler:start_urls'

    rules = (
        # follow all links
        Rule(LinkExtractor(), callback='parse_page', follow=True),
    )

    # 以前定义域名列表是通过属性方式定义,现在通过构造方法动态定义
    # 但是,这个构造方法是一个坑,不能用,还得使用allowed_domains
    def __init__(self, *args, **kwargs):
        # Dynamically define the allowed domains list.
        domain = kwargs.pop('domain', '')
        self.allowed_domains = filter(None, domain.split(','))
        super(MyCrawler, self).__init__(*args, **kwargs)

    def parse_page(self, response):
        return {
            'name': response.css('title::text').extract_first(),
            'url': response.url,
        }
# -*- coding: utf-8 -*-
import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import Rule
from imagepro.items import ImageproItem
from scrapy_redis.spiders import RedisCrawlSpider

class ZixiSpider(RedisCrawlSpider):
    name = 'zixi'
    allowed_domains = ['699pic.com']
    # start_urls = ['http://699pic.com/people.html']
    redis_key = 'zixispider:start_urls'

    # 指定规则
    # 详情页规则
    detail_link = LinkExtractor(restrict_xpaths='//div[@class="list"]/a')
    # 页码规则
    page_link = LinkExtractor(allow=r'/photo-0-6-\d+-0-0-0\.html')
    rules = (
        Rule(page_link, follow=True),
        Rule(detail_link, callback='parse_item', follow=False)
    )

    # 定制自己的配置选项
    custom_settings = {
        # 去重队列使用scrapy-redis的去重队列
        'DUPEFILTER_CLASS': "scrapy_redis.dupefilter.RFPDupeFilter",
        # 使用scrapy-redis的调度器
        'SCHEDULER': "scrapy_redis.scheduler.Scheduler",
        # 是否运行暂停
        'SCHEDULER_PERSIST': True,
        'ITEM_PIPELINES': {
            # 将数据保存到redis的管道
            'scrapy_redis.pipelines.RedisPipeline': 400,
        },
        # 配置redis的ip和端口
        'REDIS_HOST': '10.0.111.220',
        'REDIS_PORT': 6379,
        'DOWNLOAD_DELAY': '1',
    }

    def parse_item(self, response):
        # 创建一个对象
        item = ImageproItem()
        # 获取名字
        item['name'] = response.xpath('//div[@class="photo-view"]/h1/text()').extract()[0].replace(' ', '')
        # 发布时间
        item['publish_time'] = response.css('.publicityt::text').extract()[0].strip(' 发布')
        item['look'] = response.xpath('//span[@class="look"]/read/text()').extract()[0]
        item['collect']=response.css('.collect::text')[0].extract().replace(',','').strip('收藏') .strip()
        item['download']=''.join(response.css('span.download::text').extract()).replace('\t','').replace('\n','').strip('下载').strip().replace(',','')
        item['image_src']=response.xpath('//img[@id="photo"]/@src')[0].extract()

        yield item

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 213,752评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,100评论 3 387
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 159,244评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,099评论 1 286
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,210评论 6 385
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,307评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,346评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,133评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,546评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,849评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,019评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,702评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,331评论 3 319
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,030评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,260评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,871评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,898评论 2 351

推荐阅读更多精彩内容

  • 实现中华民族的伟大复兴 ̄ ̄中国梦。国家富强,民族有振兴,人民幸福。 实现教育教学的改变,提高自己的教育教学水平 ̄ ̄...
  • 无法用言语来描述的心情,阳光还好,有些许慵懒的午后,在顶楼的教室静静享受着宁静的温暖。 渐渐地,明白哭和笑都只是一...
    彤小萌阅读 370评论 0 2
  • 今天上午老师给我们看40周年改革开放,主席说有很多人都为我们国家作贡献,比如制造动车,飞机,还有轮船等等。当我们看...
    坠入河畔阅读 306评论 0 3