火山日常啰嗦
前面两篇讲了mongodb单机版的安装和复制集的配置,接下来我会讲到mongodb分片集群的安装配置,因为分片集群的基础就是复制集,所以我前面先记录了复制集的安装再来讲分片集群的安装。
分片集群的安装涉及到四个组件:
mongos(路由服务)、config server(配置服务)、shard(分片)、replica set(复制集)
下面是我配置的分片集群中这些组件的数量及分布情况:
1)2个复制集rsa0、rsa1
每个复制集有2个mongod服务(理论上有一主一从就可以成为集群)
采用水平方式配置(即每个复制集的mongod服务分别部署在不同的节点上)
每个复制集的mongod服务分别在节点172.18.149.132、172.18.149.133
2)2个config server,分别分布在172.18.149.131、172.18.149.132
3)一个mongos路由服务,分布在172.18.149.131
ps:当然,复制集的数量不一定非得为2,这是根据你的集群规模来配置的
而每个复制集的mongod服务也不一定得为2,因为我的节点数为3,其中一个节点我就想纯粹地
用来作为config server和mongos服务的节点,所以每个分片集的mongod服务数量我就设为2了,
让它们均匀地分布在另两台节点上。
mongos服务是路由服务,只需一个就够了。
安装步骤:
1、
准备工作:
1)分别在172.18.149.132、172.18.149.133节点上创建这两个目录,这是存放复制集数据的目录:
mkdir -p /opt/modules/mongodb/data/rsa0
mkdir -p /opt/modules/mongodb/data/rsa1
2)分别在172.18.149.132、172.18.149.133节点上创建这两个目录,这是存放每个复制集log日志的目录:
mkdir -p /opt/modules/mongodb/log/log0
mkdir -p /opt/modules/mongodb/log/log1
3)在172.18.149.131节点上创建:
这是config server1的配置路径
mkdir -p /opt/modules/mongodb/data/config_serv1
mkdir -p /opt/modules/mongodb/log/config_serv1_log
这是mongos的配置路径
mkdir -p /opt/modules/mongodb/log/mongos_log
4)在172.18.149.132节点创建:
这是config server2的配置路径
mkdir -p /opt/modules/mongodb/data/config_serv2
mkdir -p /opt/modules/mongodb/log/config_serv2_log
rsa0的配置:
172.18.149.132节点
mongod2.conf
dbpath=/opt/modules/mongodb/data/rsa0
logpath=/opt/modules/mongodb/log0/mongodb1_rsa0.log
smallfiles=true
replSet=rsa0
logappend=true
bind_ip=0.0.0.0
fork=true
port=27017
172.18.149.133节点
mongod3.conf
dbpath=/opt/modules/mongodb/data/rsa0
logpath=/opt/modules/mongodb/log0/mongodb2_rsa0.log
smallfiles=true
replSet=rsa0
logappend=true
bind_ip=0.0.0.0
fork=true
port=27017
rsa0的初始化:
rs.initiate( {
_id:'rsa0',
members:
[
{
_id:0,
host:'172.18.149.132:27017'
},
{
_id:1,
host:'172.18.149.133:27017'
}
]
});
rsa1的配置:
172.18.149.132节点
mongod2.conf
dbpath=/opt/modules/mongodb/data/rsa1
logpath=/opt/modules/mongodb/log1/mongodb1_rsa1.log
smallfiles=true
replSet=rsa1
logappend=true
bind_ip=0.0.0.0
fork=true
port=27018
172.18.149.133节点
mongod3.conf
dbpath=/opt/modules/mongodb/data/rsa1
logpath=/opt/modules/mongodb/log1/mongodb2_rsa1.log
smallfiles=true
replSet=rsa1
logappend=true
bind_ip=0.0.0.0
fork=true
port=27018
rsa1的初始化:
rs.initiate( {
_id:'rsa1',
members:
[
{
_id:0,
host:'172.18.149.132:27018'
},
{
_id:1,
host:'172.18.149.133:27018'
}
]
});
2个复制集已成功创建。
2、创建config server的复制集:
ps:也要声明属于config server自己的复制集名称,confi server的复制集名称我定为rsa
172.18.149.131
configServer1.conf
port=27019
dbpath=/opt/modules/mongodb/data/config_serv1
logpath=/opt/modules/mongodb/log/config_serv1_log/mongodb1_rsa_27019.log
logappend=true
fork=true
configsvr=true
smallfiles=true
replSet=rsa
bind_ip=0.0.0.0
172.18.149.132
configServer2.conf
port=27019
dbpath=/opt/modules/mongodb/data/config_serv2
logpath=/opt/modules/mongodb/log/config_serv2_log/mongodb2_rsa_27019.log
logappend=true
fork=true
configsvr=true
smallfiles=true
replSet=rsa
bind_ip=0.0.0.0
初始化config server复制集:
rs.initiate(
{
_id: "rsa",
configsvr: true,
members: [
{ _id:0, host:"172.18.149.131:27019" },
{ _id:1, host:"172.18.149.132:27019" }
]
}
)
ps:到此,我想先说一句,因为我在前面已经说过了,分片集群是基于复制集创建的,所以我这个过程都是基于这句话展开的,先配好所有的复制集并初始化。
3、将config server复制集在mongos路由服务中注册:
mongos_route.conf
logappend=true
fork=true
port=30000
configdb=rsa/172.18.149.131:27019,172.18.149.132:27019 //这就是config server在mongos中的注
//册信息
bind_ip=0.0.0.0
启动mongos服务
4、mongos服务启动后,在172.18.149.131启动mongo shell,端口30000,连接上本地的mongos服务
bin/mongos --port 30000
5、添加分片
在连接mongos的客户端操作
sh.addShard('rsa0/172.18.149.132:27017,172.18.149.132:27017');
sh.addShard('rsa1/172.18.149.133:27018,172.18.149.133:27018');
到这一步分片集群其实已经搭建完毕了。
通过sh.status();查看分片集群状态。
6、测试
1)添加待分片的数据库(以test数据库为例)
sh.enableSharding("test");
2)添加待分库的表(以test库的t1表为例,key为name,ps:表中用于表分片的key所对应的字段必须建有索引,否则分片失败)
sh.shardCollection("test.t1",{name:1})
3)查看分片结果,sh.status()
4)在mongos的客户端往t1中添加数据,然后再在分片所在的目标节点上查看是否有新添加的数据,若有,则说明分片集群真正搭建成功了。
总结:我搭建分片集群的层次是很清晰的:
1)先分别创建shard复制集以及config server复制集
2)再在mongos中注册config server的信息
3)通过mongos添加分片
这样,原本是分散的毫无关系的复制集就成为一个集群了。