1.安装docker并配置镜像源
参考 https://www.jianshu.com/p/827a242730e5
2.拉取镜像源
docker search redis
docker pull redis
docker images
3.准备配置文件
由于redis支持include语法,我们搭建的又是一台机器的伪集群,故将统一的配置放在template文件中 供大家引用
mkdir -p /opt/redis-cluster
cd /opt/redis-cluster
mkdir redis-6379 redis-6380 redis-6381
touch template.conf
vim template.conf
/opt/redis-cluster/template.conf
#是否以守护进程启动 docker如果使用-d命令启动的话必须设置为no 否则会冲突报错
daemonize no
#当Redis以守护进程方式运行时,Redis默认会把pid写入/var/run/redis.pid文件,可以通过pidfile指定
pidfile /data/redis.pid
#端口 各配置自己定义
# port 6379
tcp-backlog 1024
#超时时间,空闲时间超过该值则断开客户端的连接 为0表示关闭该功能
timeout 3000
tcp-keepalive 60
#日志等级和日志文件路径配置
loglevel notice
logfile "/data/redis.log"
# 是否开启保护模式 可以和密码配合使用
protected-mode no
databases 16
#指定在多长时间内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合
#指定为空表示不同步到数据文件
save ""
#可以通过多个条件组合的方式设置同步规则
#save 900 1
#save 300 10
#save 60 10000
stop-writes-on-bgsave-error yes
rdbcompression yes
rdbchecksum yes
#rdb文件名称
dbfilename dump.rdb
#数据文件存储目录
dir /data/
slave-serve-stale-data yes
slave-read-only yes
repl-disable-tcp-nodelay no
slave-priority 100
appendonly yes
appendfilename "appendonly.aof"
# appendfsync always
appendfsync everysec
# appendfsync no
no-appendfsync-on-rewrite no
auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb
aof-load-truncated yes
lua-time-limit 5000
slowlog-log-slower-than 1000
slowlog-max-len 1000
latency-monitor-threshold 0
notify-keyspace-events ""
# 指定在超过一定的数量或者最大的元素超过某一临界值时,采用一种特殊的哈希算法
hash-max-ziplist-entries 512
hash-max-ziplist-value 64
list-max-ziplist-entries 512
list-max-ziplist-value 64
set-max-intset-entries 512
zset-max-ziplist-entries 128
zset-max-ziplist-value 64
hll-sparse-max-bytes 3000
#指定是否激活重置哈希,默认为开启
activerehashing yes
client-output-buffer-limit normal 0 0 0
client-output-buffer-limit slave 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
hz 10
aof-rewrite-incremental-fsync yes
单独的配置文件 这里设置6380作为master节点,6379和6381作为slave节点
/opt/redis-cluster/redis-6379/redis.conf
# 这里template是容器内的绝对路径
include /usr/local/etc/redis/template.conf
# 设置端口
port 6379
# 设置master节点的ip和端口
replicaof 172.16.10.202 6380
/opt/redis-cluster/redis-6380/redis.conf
# 这里template是容器内的绝对路径
include /usr/local/etc/redis/template.conf
# 6380就是主节点 不需要设置replicaof
# 设置端口
port 6380
/opt/redis-cluster/redis-6381/redis.conf
# 这里template是容器内的绝对路径
include /usr/local/etc/redis/template.conf
# 设置端口
port 6381
# 设置复制数据的来源 也就是master节点的ip和端口
replicaof 172.16.10.202 6380
4.运行脚本
需要注意:
1.docker使用-d启动所以配置文件一定要设置daemon为no
2.先启动master节点 再启动slave节点
# 官方镜像运行(一主两从) daemon一定要改成no 不然会和-d冲突导致启动不成功
docker run -it -d --net host --name redis-6380 \
-v /opt/redis-cluster/redis-6380/data/:/data \
-v /opt/redis-cluster/redis-6380/redis.conf:/usr/local/etc/redis/redis.conf \
-v /opt/redis-cluster/template.conf:/usr/local/etc/redis/template.conf \
redis:latest redis-server /usr/local/etc/redis/redis.conf
docker run -it -d --net host --name redis-6381 \
-v /opt/redis-cluster/redis-6381/data/:/data \
-v /opt/redis-cluster/redis-6381/redis.conf:/usr/local/etc/redis/redis.conf \
-v /opt/redis-cluster/template.conf:/usr/local/etc/redis/template.conf \
redis:latest redis-server /usr/local/etc/redis/redis.conf
docker run -it -d --net host --name redis-6379 \
-v /opt/redis-cluster/redis-6379/data/:/data \
-v /opt/redis-cluster/redis-6379/redis.conf:/usr/local/etc/redis/redis.conf \
-v /opt/redis-cluster/template.conf:/usr/local/etc/redis/template.conf \
redis:latest redis-server /usr/local/etc/redis/redis.conf
验证
docker ps
可以看到三个端口的redis都启动了.
下面我们通过info replication命令查看下主从服务器的情况。
[root@kf202 redis-cluster]# redis-cli -p 6379
127.0.0.1:6379> keys *
(empty list or set)
127.0.0.1:6379> info replication
# Replication
role:slave
master_host:172.16.10.202
master_port:6380
master_link_status:up
master_last_io_seconds_ago:9
master_sync_in_progress:0
slave_repl_offset:5628
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:1632817c6e6a7b631395065a3d2a978cbe2f3513
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:5628
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:15
repl_backlog_histlen:5614
127.0.0.1:6379>
127.0.0.1:6379>
127.0.0.1:6379> set user1 zjtx
(error) READONLY You can't write against a read only replica.
127.0.0.1:6379> exit
可以看到 6379端口是以slave存在的 master节点正是我们设置的6380端口。
master_host:172.16.10.202
master_port:6380
由于配置了从节点只读的属性,因此执行添加数据的时候提示了只读的错误。
READONLY You can't write against a read only replica.
一些重要信息解释如下:
role: 角色 可以是slave或者master
master_host/master_port 主节点IP和端口
master_link_status 连接到主节点的状态 可以是UP 和 DOWN
connected_slaves:0 连接的从节点个数
slave_read_only:1 从节点是否只读 1 表示只读
我们再看下6380端口的信息
[root@kf202 ~]# redis-cli -p 6380
127.0.0.1:6380> info replication
# Replication
role:master
connected_slaves:2
slave0:ip=172.16.10.202,port=6381,state=online,offset=25171,lag=1
slave1:ip=172.16.10.202,port=6379,state=online,offset=25171,lag=1
master_replid:ae7153909cd7f892074b1f6617fc60fb236313e1
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:25453
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:25453
127.0.0.1:6380> set user1 zjtx2018
OK
127.0.0.1:6380> keys *
1) "user1"
127.0.0.1:6380> get user1
"zjtx2018"
127.0.0.1:6380>
可以看到6380对应的role是master 有两个slave连接,同时可以正常操作数据。
我们再验证下数据同步的情况。
[root@kf202 redis-cluster]# redis-cli -p 6379
127.0.0.1:6379> keys *
1) "user1"
127.0.0.1:6379> get user1
"zjtx2018"
127.0.0.1:6379> exit
[root@kf202 redis-cluster]# redis-cli -p 6381
127.0.0.1:6381> keys *
1) "user1"
127.0.0.1:6381> get user1
"zjtx2018"
可以看到6379 和 6381 的数据都可以正常同步。
至此一主两从的redis集群环境搭建成功。