centos Mongodb 基础使用

成功启动MongoDB后,再打开一个命令行窗口输入mongo,就可以进行数据库的一些操作。

输入help可以看到基本操作命令:

show dbs:显示数据库列表
show collections:显示当前数据库中的集合(类似关系数据库中的表)
show users:显示用户

use <db name>:切换当前数据库,这和MS-SQL里面的意思一样
db.help():显示数据库操作命令,里面有很多的命令
db.foo.help():显示集合操作命令,同样有很多的命令,foo指的是当前数据库下,一个叫foo的集合,并非真正意义上的命令
db.foo.find():对于当前数据库中的foo集合进行数据查找(由于没有条件,会列出所有数据)
db.foo.find( { a : 1 } ):对于当前数据库中的foo集合进行查找,条件是数据中有一个属性叫a,且a的值为1

MongoDB没有创建数据库的命令,但有类似的命令。

如:如果你想创建一个“myTest”的数据库,先运行use myTest命令,之后就做一些操作(如:db.createCollection(‘user’)),这样就可以创建一个名叫“myTest”的数据库。

数据库常用命令

  1. Help查看命令提示
    help
    db.help();
    db.yourColl.help();
    db.youColl.find().help();
    rs.help();

  2. 切换/创建数据库
    use yourDB; 当创建一个集合(table)的时候会自动创建当前数据库

  3. 查询所有数据库
    show dbs;

  4. 删除当前使用数据库
    db.dropDatabase();

  5. 从指定主机上克隆数据库

db.cloneDatabase(“127.0.0.1”); 将指定机器上的数据库的数据克隆到当前数据库

  1. 从指定的机器上复制指定数据库数据到某个数据库

db.copyDatabase(“mydb”, “temp”, “127.0.0.1”);将本机的mydb的数据复制到temp数据库中

  1. 修复当前数据库

db.repairDatabase();

  1. 查看当前使用的数据库

db.getName();

db; db和getName方法是一样的效果,都可以查询当前使用的数据库

  1. 显示当前db状态

db.stats();

  1. 当前db版本

db.version();

  1. 查看当前db的链接机器地址

db.getMongo();

Collection聚集集合

  1. 创建一个聚集集合(table)

db.createCollection(“collName”, {size: 20, capped: 5, max: 100});

  1. 得到指定名称的聚集集合(table)

db.getCollection(“account”);

  1. 得到当前db的所有聚集集合

db.getCollectionNames();

  1. 显示当前db所有聚集索引的状态

db.printCollectionStats();

用户相关

  1. 添加一个用户

db.addUser(“name”);

db.addUser(“userName”, “pwd123″, true); 添加用户、设置密码、是否只读

  1. 数据库认证、安全模式

db.auth(“userName”, “123123”);

  1. 显示当前所有用户

show users;

  1. 删除用户

db.removeUser(“userName”);

其他

  1. 查询之前的错误信息
    db.getPrevError();
  2. 清除错误记录
    db.resetError();

查看聚集集合基本信息

  1. 查看帮助 db.yourColl.help();
  2. 查询当前集合的数据条数 db.yourColl.count();
  3. 查看数据空间大小 db.userInfo.dataSize();
  4. 得到当前聚集集合所在的db db.userInfo.getDB();
  5. 得到当前聚集的状态 db.userInfo.stats();
  6. 得到聚集集合总大小 db.userInfo.totalSize();
  7. 聚集集合储存空间大小 db.userInfo.storageSize();
  8. Shard版本信息 db.userInfo.getShardVersion()
  9. 聚集集合重命名 db.userInfo.renameCollection(“users”); 将userInfo重命名为users
  10. 删除当前聚集集合 db.userInfo.drop();

聚集集合查询

  1. 查询所有记录
    db.userInfo.find();
    相当于:select* from userInfo;
    默认每页显示20条记录,当显示不下的情况下,可以用it迭代命令查询下一页数据。注意:键入it命令不能带“;”
    但是你可以设置每页显示数据的大小,用DBQuery.shellBatchSize= 50;这样每页就显示50条记录了。

  2. 查询去掉后的当前聚集集合中的某列的重复数据
    db.userInfo.distinct(“name”);
    会过滤掉name中的相同数据
    相当于:select distict name from userInfo;

  3. 查询age = 22的记录
    db.userInfo.find({“age”: 22});
    相当于: select * from userInfo where age = 22;

  4. 查询age > 22的记录
    db.userInfo.find({age: {$gt: 22}});
    相当于:select * from userInfo where age >22;

  5. 查询age < 22的记录
    db.userInfo.find({age: {$lt: 22}});
    相当于:select * from userInfo where age <22;

  6. 查询age >= 25的记录
    db.userInfo.find({age: {$gte: 25}});
    相当于:select * from userInfo where age >= 25;

  7. 查询age <= 25的记录
    db.userInfo.find({age: {$lte: 25}});

  8. 查询age >= 23 并且 age <= 26
    db.userInfo.find({age: {gte: 23,lte: 26}});

  9. 查询name中包含 mongo的数据
    db.userInfo.find({name: /mongo/});
    //相当于%%
    select * from userInfo where name like ‘%mongo%’;

  10. 查询name中以mongo开头的
    db.userInfo.find({name: /^mongo/});
    select * from userInfo where name like ‘mongo%’;

  11. 查询指定列name、age数据
    db.userInfo.find({}, {name: 1, age: 1});
    相当于:select name, age from userInfo;
    当然name也可以用true或false,当用ture的情况下河name:1效果一样,如果用false就是排除name,显示name以外的列信息。

  12. 查询指定列name、age数据, age > 25
    db.userInfo.find({age: {$gt: 25}}, {name: 1, age: 1});
    相当于:select name, age from userInfo where age >25;

  13. 按照年龄排序
    升序:db.userInfo.find().sort({age: 1});
    降序:db.userInfo.find().sort({age: -1});

  14. 查询name = zhangsan, age = 22的数据
    db.userInfo.find({name: ‘zhangsan’, age: 22});
    相当于:select * from userInfo where name = ‘zhangsan’ and age = ‘22’;

  15. 查询前5条数据
    db.userInfo.find().limit(5);
    相当于:selecttop 5 * from userInfo;

  16. 查询10条以后的数据
    db.userInfo.find().skip(10);
    相当于:select * from userInfo where id not in (
    selecttop 10 * from userInfo
    );

  17. 查询在5-10之间的数据
    db.userInfo.find().limit(10).skip(5);
    可用于分页,limit是pageSize,skip是第几页*pageSize

  18. or与 查询
    db.userInfo.find({$or: [{age: 22}, {age: 25}]});
    相当于:select * from userInfo where age = 22 or age = 25;

  19. 查询第一条数据
    db.userInfo.findOne();
    相当于:selecttop 1 * from userInfo;
    db.userInfo.find().limit(1);

  20. 查询某个结果集的记录条数
    db.userInfo.find({age: {$gte: 25}}).count();
    相当于:select count(*) from userInfo where age >= 20;

  21. 按照某列进行排序
    db.userInfo.find({sex: {$exists: true}}).count();
    相当于:select count(sex) from userInfo;

索引

1、创建索引
db.userInfo.ensureIndex({name: 1});
db.userInfo.ensureIndex({name: 1, ts: -1});
2、查询当前聚集集合所有索引
db.userInfo.getIndexes();
3、查看总索引记录大小
db.userInfo.totalIndexSize();
4、读取当前集合的所有index信息
db.users.reIndex();
5、删除指定索引
db.users.dropIndex(“name_1″);

6、删除所有索引索引
db.users.dropIndexes();

修改、添加、删除集合数据

1、添加
db.users.save({name: ‘zhangsan’, age: 25, sex: true});
添加的数据的数据列,没有固定,根据添加的数据为准

2、修改

db.users.update({age: 25}, {$set: {name: ‘changeName’}}, false, true);
相当于:update users set name = ‘changeName’ where age = 25;
db.users.update({name: ‘Lisi’}, {$inc: {age: 50}}, false, true);
相当于:update users set age = age + 50 where name = ‘Lisi’;
db.users.update({name: ‘Lisi’}, {$inc: {age: 50}, $set: {name: ‘hoho’}}, false, true);
相当于:update users set age = age + 50, name = ‘hoho’ where name = ‘Lisi’;

3、删除

db.users.remove({age: 132});

4、查询修改删除

db.users.findAndModify({
query: {age: {$gte: 25}},
sort: {age: -1},
update: {$set: {name: ‘a2′}, $inc: {age: 2}},
remove: true
});
db.runCommand({ findandmodify : “users”,
query: {age: {$gte: 25}},
sort: {age: -1},
update: {$set: {name: ‘a2′}, $inc: {age: 2}},
remove: true
});

语句块操作

  1. 简单Hello World
    print(“Hello World!”);
    这种写法调用了print函数,和直接写入”Hello World!”的效果是一样的;

  2. 将一个对象转换成json
    tojson(new Object());
    tojson(new Object(‘a’));

  3. 循环添加数据

> for (var i = 0; i < 30; i++) {
    db.users.save({name: “u_” + i, age: 22 + i, sex: i % 2});
 };

这样就循环添加了30条数据,同样也可以省略括号的写法

> for (var i = 0; i < 30; i++)
    db.users.save({name: “u_” + i, age: 22 + i, sex: i % 2});

也是可以的,当你用db.users.find()查询的时候,显示多条数据而无法一页显示的情况下,可以用it查看下一页的信息;

  1. find 游标查询
>var cursor = db.users.find();
> while (cursor.hasNext()) {
printjson(cursor.next());
}

这样就查询所有的users信息,同样可以这样写

var cursor = db.users.find();
while (cursor.hasNext()) { printjson(cursor.next); }

同样可以省略{}号

  1. forEach迭代循环
db.users.find().forEach(printjson);

forEach中必须传递一个函数来处理每条迭代的数据信息

  1. 将find游标当数组处理
var cursor = db.users.find();
cursor[4];

取得下标索引为4的那条数据
既然可以当做数组处理,那么就可以获得它的长度:cursor.length();或者cursor.count();
那样我们也可以用循环显示数据

for (var i = 0, len = c.length(); i < len; i++) printjson(c[i]);
  1. 将find游标转换成数组
> var arr = db.users.find().toArray();
> printjson(arr[2]);

用toArray方法将其转换为数组

  1. 定制我们自己的查询结果
    只显示age <= 28的并且只显示age这列数据
db.users.find({age: {$lte: 28}}, {age: 1}).forEach(printjson);
db.users.find({age: {$lte: 28}}, {age: true}).forEach(printjson);

排除age的列

db.users.find({age: {$lte: 28}}, {age: false}).forEach(printjson);
  1. forEach传递函数显示信息
db.things.find({x:4}).forEach(function(x) {print(tojson(x));});

配置详解

此处摘自:http://www.cnblogs.com/zhoujinyi/p/3130231.html

启动MongoDB有2种方式,一是直接指定配置参数,二是指定配置文件。这里先介绍配置文件,启动方式如下:

mongod –config /etc/mongodb.conf

配置如下:
verbose:日志信息冗余。默认false。提高内部报告标准输出或记录到logpath配置的日志文件中。要启用verbose或启用verbosity 用vvvv参数,如:

verbose = true
vvvv = true

ps:启动verbose冗长信息,它的级别有 vv~vvvvv,v越多级别越高,在日志文件中记录的信息越详细。
port:端口。默认27017,MongoDB的默认服务TCP端口,监听客户端连接。要是端口设置小于1024,比如1021,则需要root权限启动,不能用mongodb帐号启动,(普通帐号即使是27017也起不来)否则报错:[mongo –port=1021 连接]

ERROR: listen(): bind() failed errno:13 Permission denied for socket: 127.0.0.1:1021
port = 27017

bind_ip:绑定地址。默认127.0.0.1,只能通过本地连接。进程绑定和监听来自这个地址上的应用连接。要是需要给其他服务器连接,则需要注释掉这个或则把IP改成本机地址,如192.168.200.201[其他服务器用 mongo –host=192.168.200.201 连接] ,可以用一个逗号分隔的列表绑定多个IP地址。

bind_ip = 127.0.0.1
maxConns:最大连接数。默认值:取决于系统(即的ulimit和文件描述符)限制。MongoDB中不会限制其自身的连接。当设置大于系统的限制,则无效,以系统限制为准。这对于客户端创建很多“表”,允许连接超时而不关闭“表”的时候很有用。设置该值的高于连接池和总连接数的大小,以防止尖峰时候的连接。注意:不能设置该值大于20000。

maxConns = 100
objcheck:强制验证客户端请求。2.4的默认设置为objcheck成为true,在早期版本objcheck默认为false。因为它强制验证客户端请求,确保客户端绝不插入无效文件到数据库中。对于嵌套文档的对象,会有一点性能影响。设置noobjcheck 关闭。

objcheck = true

noobjcheck = false

noobjcheck:同上,默认关闭false。

noobjcheck = false

logpath:指定日志文件,该文件将保存所有的日志记录、诊断信息。除非另有指定,mongod将所有的日志信息输出到标准输出。如果没有指定logappend,重启则日志会进行覆盖操作。

logpath=/var/log/mongodb/mongodb.log
logappend:写日志的模式:设置为true为追加。默认是覆盖。如果未指定此设置,启动时MongoDB的将覆盖现有的日志文件。

logappend=true
syslog:日志输出都发送到主机的syslog系统,而不是标准输出到logpath指定日志文件。syslog和logpath不能一起用,会报错:

Cant use both a logpath and syslog

syslog = true
pidfilepath:进程ID,没有指定则启动时候就没有PID文件。默认缺省。

pidfilepath = /var/run/mongo.pid
keyFile:指定存储身份验证信息的密钥文件的路径。默认缺省。详情见:”

Replica Set Security” and “Replica Set Administration.”
keyFile = /srv/mongodb/keyfile
nounixsocket:套接字文件,默认为false,有生成socket文件。当设置为true时,不会生成socket文件。

nounixsocket = false
unixSocketPrefix:套接字文件路径,默认/tmp

unixSocketPrefix = /tmp
fork:是否后台运行,设置为true 启动 进程在后台运行的守护进程模式。默认false。

fork = true
auth:用户认证,默认false。不需要认证。当设置为true时候,进入数据库需要auth验证,当数据库里没有用户,则不需要验证也可以操作。直到创建了第一个用户,之后操作都需要验证。

auth = true
比如:通过db.addUser(‘sa’,’sa’) 在admin库下面创建一个超级用户,只能在在admin库下面先认证完毕了:ab.auth(‘sa’,’sa’) ,才能去别的库操作,不能在其他库验证。这样连接数据库也需要指定库:

mongo -usa -psa admin #sa 帐号连接admin
mongo -uaa -paa test #aa 帐号连接test
noauth:禁止用户认证,默认true。同上

noauth = true
cpu:设置为true会强制mongodb每4s报告cpu利用率和io等待,把日志信息写到标准输出或日志文件。默认为false。

cpu = true
开启日志会出现:

Mon Jun 10 10:21:42.241 [snapshotthread] cpu: elapsed:4000 writelock: 0%
dbpath:数据存放目录。默认: /data/db/

dbpath=/var/lib/mongodb
diaglog:创建一个非常详细的故障排除和各种错误的诊断日志记录。默认0。设置为1,为在dbpath目录里生成一个diaglog.开头的日志文件,他的值如下:

Value Setting
0 off. No logging. #关闭。没有记录。
1 Log write operations. #写操作
2 Log read operations. #读操作
3 Log both read and write operations. #读写操作
7 Log write and some read operations. #写和一些读操作
设置不等于0,日志会每分钟flush 一次:

Mon Jun 10 11:16:17.504 [DataFileSync] flushing diag log
Mon Jun 10 11:17:17.442 [DataFileSync] flushing diag log
产生的日志可以用mongosniff 来查看:要是mongosniff[类似于tcpdump的作为一个MongoDB的特定的TCP/ IP网络流量]出现报错和具体用法,请见这里,之前先执行:apt-get install libpcap-dev

root@m3:/var/lib/mongodb# mongosniff –source DIAGLOG diaglog.51b542a9

注意:当重新设置成0,会停止写入文件,但mongod还是继续保持打开该文件,即使它不再写入数据文件。如果你想重命名,移动或删除诊断日志,你必须完全关闭mongod实例。

diaglog = 3
directoryperdb:设置为true,修改数据目录存储模式,每个数据库的文件存储在DBPATH指定目录的不同的文件夹中。使用此选项,可以配置的MongoDB将数据存储在不同的磁盘设备上,以提高写入吞吐量或磁盘容量。默认为false。
注意:要是在运行一段时间的数据库中,开启该参数,会导致原始的数据都会消失(注释参数则会回来)。因为数据目录都不同了,除非迁移现有的数据文件到directoryperdb产生的数据库目录中,如:
root@m3:/var/lib/mongodb# mv test.* test/
把test数据文件迁移到directoryperdb产生的数据库test目录中。 所以需要在规划好之后确定是否要开启。

directoryperdb = ture
复制代码
原始数据结构:
journal
mongod.lock
local.0
local.1
local.ns
test.0
test.1
test.ns

开启 directoryperdb,并把数据文件迁移到相关的数据目录后的结构:

journal
mongod.lock
local/local.0
local/local.1
local/local.ns
test/test.0
test/test.1
test/test.ns

复制代码
journal:日志,(redo log,更多的介绍请看这里和这里)
默认值:(在64位系统)true。
默认值:(32位系统)false。
设置为true,启用操作日志,以确保写入持久性和数据的一致性,会在dbpath目录下创建journal目录。
设置为false,以防止日志持久性的情况下,并不需要开销。为了减少磁盘上使用的日志的影响,您可以启用nojournal,并设置为true。
注意:在64位系统上禁用日志必须使用带有nojournal的。

journal=true

journal=false
32位OS:

Tue Jun 11 12:17:09.628 [initandlisten] ** NOTE: This is a 32 bit MongoDB binary.
Tue Jun 11 12:17:09.628 [initandlisten] ** 32 bit builds are limited to less than 2GB of data (or less with –journal).
64位OS:

Tue Jun 11 12:29:34 [initandlisten] journal dir=/var/lib/mongodb/journal
Tue Jun 11 12:29:34 [initandlisten] recover : no journal files present, no recovery needed
nojournal:禁止日志
默认值:(在64位系统)false。
默认值:(32位系统)true。
设置nojournal为true关闭日志,64位,2.0版本后的mongodb默认是启用 journal日志。

nojournal=true

journalCommitInterval:刷写提交机制,默认是30ms或则100ms。较低的值,会更消耗磁盘的性能。
此选项接受2和300毫秒之间的值:
如果单块设备提供日志和数据文件,默认的日记提交时间间隔为100毫秒。
如果不同的块设备提供的日志和数据文件,默认的日记提交的时间间隔为30毫秒。

journalCommitInterval=100
ipv6:是否支持ipv6,默认false。

jsonp:是否允许JSONP访问通过一个HTTP接口,默认false。

nohttpinterface:是否禁止http接口,即28017 端口开启的服务。默认false,支持。

nohttpinterface = false
noprealloc:预分配方式。
默认false:使用预分配方式来保证写入性能的稳定,预分配在后台进行,并且每个预分配的文件都用0进行填充。这会让MongoDB始终保持额外的空间和空余的数据文件,从而避免了数据增长过快而带来的分配磁盘空间引起的阻塞。
设置noprealloc= true来禁用预分配的数据文件,会缩短启动时间,但在正常操作过程中,可能会导致性能显著下降。

noprealloc = false
noscripting:是否禁止脚本引擎。默认是false:不禁止。ture:禁止
要是设置成true:运行一些脚本的时候会出现:

JavaScript execution failed: group command failed: { “ok” : 0, “errmsg” : “server-side JavaScript execution is disabled” }
#noscripting = true <====> noscripting = false
notablescan:是否禁止表扫描操作。默认false:不禁止,ture:禁止

禁止要是执行表扫描会出现:

error: { “$err” : “table scans not allowed:test.emp”, “code” : 10111 }
可以动态修改设置:

db.adminCommand({setParameter:1, notablescan:false})
#notablescan = true <====> notablescan = false
nssize:命名空间的文件(即NS)的默认大小,默认16M,最大2G。
所有新创建的默认大小命名空间的文件(即NS)。此选项不会影响现有的命名空间的文件的大小。默认值是16M字节,最大大小为2 GB。让小数据库不让浪费太多的磁盘空间,同时让大数据在磁盘上有连续的空间。

-rwxrwxrwx 1 mongodb zhoujy 16M 6月 11 14:44 test.0
-rwxrwxrwx 1 mongodb zhoujy 32M 6月 1 21:36 test.1
-rwxrwxrwx 1 mongodb zhoujy 16M 6月 11 14:44 test.ns
drwxr-xr-x 2 root root 4.0K 6月 10 11:57 _tmp
nssize = 16
profile:数据库分析等级设置。记录一些操作性能到标准输出或则指定的logpath的日志文件中,默认0:关闭。

级别 设置
0 关。无分析。
1 开。仅包括慢操作。
2 开。包括所有操作。
控制 Profiling 的开关和级别:2种
第一种是直接在启动参数里直接进行设置或则启动MongoDB时加上–profile=级别,其信息保存在 生成的system.profile 中。

profile = 2
第二种是在客户端用db.setProfilingLevel(级别)命令来实时配置,其信息保存在 生成的system.profile 中。

[initandlisten] creating profile collection: local.system.profile

db.setProfilingLevel(2)
{ “was” : 0, “slowms” : 100, “ok” : 1 }
db.getProfilingStatus()
{ “was” : 2, “slowms” : 100 }

默认情况下,mongod的禁用分析。数据库分析可以影响数据库的性能,因为分析器必须记录和处理所有的数据库操作。所以在需要的时候用动态修改就可以了。

slowms:记录profile分析的慢查询的时间,默认是100毫秒。具体同上。

slowms = 200

db.getProfilingStatus()
{ “was” : 2, “slowms” : 200 }
quota:配额,默认false。是否开启配置每个数据库的最多文件数的限制。当为true则用quotaFiles来配置最多文件的数量。

quota = true
quotaFiles:配额数量。每个数据库的数据文件数量的限制。此选项需要quota为true。默认为8。

quotaFiles = 8
rest: 默认false,设置为true,使一个简单的 REST API。

rest = true
设置为true,开启后,在MongoDB默认会开启一个HTTP协议的端口提供REST的服务(nohttpinterface = false),这个端口是你Server端口加上1000,即28017,默认的HTTP端口是数据库状态页面,(开启后,web页面的Commands 行中的命令都可以点进去)。mongodb自带的REST,不支持 增、删、改,同时也不支持 权限认证。
详细信息见这里和这里。
repair:修复数据库操作,默认是false。
设置为true时,启动后修复所有数据库,设置这个选项最好在命令行上,而不是在配置文件或控制脚本。如:
命令行修复:

db.repairDatabase(‘xxx’)
{ “ok” : 1 }
db.repairDatabase()
{ “ok” : 1 }

启动时修复:

repair = true
root@m3:/var/log/mongodb# mongod –repair

启动时修复,需要关闭journal,否则报错:

Can’t specify both –journal and –repair options.

并且启动时,用控制文件指定参数和配置文件里指定参数的方式进行修复之后,(修复信息见log),需要再禁用repair参数才能启用mongodb。
注意:mongod修复时,需要重写所有的数据库文件。如果在同一个帐号下不能运行修复,则需要运行chown修改数据库文件的权限。

repairpath:修复路径,默认是在dbpath路径下的_tmp 目录。

drwxr-xr-x 2 root root 4.0K 6月 11 20:23 _tmp
smallfiles:是否使用较小的默认文件。默认为false,不使用。
设置为true,使用较小的默认数据文件大小。smallfiles减少数据文件的初始大小,并限制他们到512M,也减少了日志文件的大小,并限制他们到128M。
如果数据库很大,各持有少量的数据,会导致mongodb创建很多文件,会影响性能。

smallfiles = true
syncdelay:刷写数据到日志的频率,通过fsync操作数据。默认60秒。

syncdelay = 60
默认就可以,不需要设置。不会对日志文件(journal files)有影响

警告:如果设置为0,SYNCDELAY 不会同步到磁盘的内存映射文件。在生产系统上,不要设置这个值。

sysinfo:系统信息,默认false。

设置为true,mongod会诊断系统有关的页面大小,数量的物理页面,可用物理​​页面的数量输出到标准输出。

Tue Jun 11 21:07:15.031 sysinfo:
Tue Jun 11 21:07:15.035 page size: 4096
Tue Jun 11 21:07:15.035 _SC_PHYS_PAGES: 256318
Tue Jun 11 21:07:15.035 _SC_AVPHYS_PAGES: 19895

当开启sysinfo参数的时候,只会打印上面的信息,不会启动mongodb的程序。所以要关闭该参数,才能开启mongodb。

upgrade:升级。默认为false。
当设置为true,指定DBPATH,升级磁盘上的数据格式的文件到最新版本。会影响数据库操作,更新元数据。大部分情况下,不需要设置该值。

traceExceptions:是否使用内部诊断。默认false。

traceExceptions = false
quiet:安静模式。

quiet = true
setParameter:2.4的新参数,指定启动选项配置。想设置多个选项则用一个setParameter选项指定,可以setParameter的参数请见这里,详情请见这里
声明setParameter设置在这个文件中,使用下面的格式:

setParameter = <parameter>=<value>
如配置文件里设置syncdelay:

setParameter = syncdelay= 55,notablescan = true,journalCommitInterval = 50,traceExceptions = true
Replication Options 复制选项
replSet:使用此设置来配置复制副本集。指定一个副本集名称作为参数,所有主机都必须有相同的名称作为同一个副本集。

oplogSize:指定的复制操作日志(OPLOG)的最大大小。mongod创建一个OPLOG的大小基于最大可用空间量。对于64位系统,OPLOG通常是5%的可用磁盘空间。
一旦mongod第一次创建OPLOG,改变oplogSize将不会影响OPLOG的大小。

fastsync:默认为false。在副本集下,设置为true,从一个dbpath里启用从库复制服务,该dbpath的数据库是主库的快照,可用于快速启用同步,否则的mongod将尝试执行初始同步。注意:如果数据不完全同步,mongod指定fastsync开启,secondary或slave与主永久不同步,这可能会导致显着的一致性问题。

replIndexPrefetch:2.2版本出现的新参数,默认是all。可以设置的值有:all, none, and _id_only。只能在副本集(replSet)中使用。默认情况下,secondary副本集的成员将加载所有索引到内存中(从OPLOG之前的操作有关的)。您可以修改此行为,使secondary只会加载_id索引。指定_id_或none,防止mongod的任何索引加载到内存。

Master/Slave Replication:主从复制的相关设置

master:默认为false,当设置为true,则配置当前实例作为主实例。

master = true
slave:默认为false,当设置为true,则配置当前实例作为从实例。

slave = true
source:默认为空,格式为:<host><:port>。用于从实例的复制:设置从的时候指定该选项会让从复制指定主的实例

source = 127.0.0.1:30001
only:默认为空,用于从选项,指定一个数据库进行复制。

only = abc #只同步abc集合(库)
slavedelay:设置从库同步主库的延迟时间,用于从设置,默认为0。

slavedelay = 60 #延迟60s同步主数据
autoresync:默认为false,用于从设置。是否自动重新同步。设置为true,如果落后主超过10秒,会强制从自动重新同步。如果oplogSize太小,此设置可能有问题。如果OPLOG大小不足以存储主的变化状态和从的状态变化之间的差异,这种情况下强制重新同步是不必要的。当设置autoresync选项设置为false,10分钟内从不会进行大于1次的自动重新同步。

autoresync = false
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,185评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,445评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,684评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,564评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,681评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,874评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,025评论 3 408
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,761评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,217评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,545评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,694评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,351评论 4 332
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,988评论 3 315
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,778评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,007评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,427评论 2 360
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,580评论 2 349

推荐阅读更多精彩内容