背景:
通过上一篇的 MongoDB 分片的原理、搭建、应用 大致了解了MongoDB分片的安装和一些基本的使用情况,现在来说明下如何管理和优化MongoDB分片的使用。
知识点:
1) 分片的配置和查看
① 添加分片:sh.addShard("IP:Port")
mongos> sh.addShard("192.168.200.A:40000") #添加分片
{ "shardAdded" : "shard0000", "ok" : 1 }
mongos> sh.addShard("192.168.200.B:40000") #添加分片
{ "shardAdded" : "shard0001", "ok" : 1 }
mongos> sh.addShard("192.168.200.C:40000") #添加分片
{ "shardAdded" : "shard0002", "ok" : 1 }
② 开启分片功能:sh.enableSharding("库名")、sh.shardCollection("库名.集合名",{"key":1})
mongos> sh.enableSharding("dba")
{ "ok" : 1 }
mongos> sh.shardCollection("dba.account",{"name":1})
{ "collectionsharded" : "dba.account", "ok" : 1 }
③ 查看分片状态:sh.status()
mongos> sh.status()
--- Sharding Status ---...
shards:
{ "_id" : "shard0000", "host" : "192.168.200.A:40000" }
{ "_id" : "shard0001", "host" : "192.168.200.B:40000" }
{ "_id" : "shard0002", "host" : "192.168.200.C:40000" }
...
databases: #库
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : false, "primary" : "shard0000" }
{ "_id" : "dba", "partitioned" : true, "primary" : "shard0000" } #允许分片
dba.account #dba下的分片集合
shard key: { "name" : 1 }
chunks: #块信息
shard0000 1
{ "name" : { "$minKey" : 1 } } -->> { "name" : { "$maxKey" : 1 } } on : shard0000 Timestamp(1, 0) #块里数据的范围
2) 配置信息说明,config库的介绍。
① 分片信息:config.shards
mongos> db.shards.find()
{ "_id" : "shard0000", "host" : "192.168.200.51:40000" }
{ "_id" : "shard0001", "host" : "192.168.200.52:40000" }
{ "_id" : "shard0002", "host" : "192.168.200.53:40000" }
{ "_id" : "mablevi", "host" : "mablevi/192.168.200.53:50000,192.168.200.53:50001,192.168.200.53:50002" } #副本级分片,不需要把所有的节点写出
② 分片中所有数据库信息:config.databases
mongos> db.databases.find()
{ "_id" : "admin", "partitioned" : false, "primary" : "config" }
{ "_id" : "test", "partitioned" : false, "primary" : "shard0001" }
{ "_id" : "dba", "partitioned" : true, "primary" : "shard0000" } #分片
{ "_id" : "abc", "partitioned" : true, "primary" : "shard0000" } #分片
③ 分片集合信息:config.collections
mongos> db.collections.findOne()
{
"_id" : "dba.account",
"lastmod" : ISODate("2015-07-14T15:12:29.706Z"),
"dropped" : false,
"key" : { #片键
"name" : 1
},
"unique" : false, #片键是否唯一
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77")
}
④ mongos路由的信息:config.mongs 。可以查看所有mongos的状态
mongos> db.mongos.findOne()
{
"_id" : "mongo2:30000",
"ping" : ISODate("2015-07-27T03:13:06.178Z"),
"up" : 323671, #活着时间
"waiting" : true,
"mongoVersion" : "3.0.4" #版本
}
⑤ 均衡器锁的信息:config.locks,记录所有集群范围的锁,可得知哪个mongos是均衡器。
mongos> db.locks.findOne()
{
"_id" : "balancer", #均衡器
"state" : 1, #0非活动状态、1尝试得到锁,但还没得到,2表示正在进行均衡
"who" : "mongo1:30000:1436888525:1804289383:Balancer:846930886", #哪个mongos当均衡器
"ts" : ObjectId("55b5a2d5fdd9a605a039f951"),
"process" : "mongo1:30000:1436888525:1804289383",
"when" : ISODate("2015-07-27T03:17:41.159Z"),
"why" : "doing balance round" #均衡导致锁
}
⑥ 记录所有块的信息:config.chunks,也可以通过sh.status()查看
mongos> db.chunks.find().pretty()
{
"_id" : "dba.account-name_MinKey", #标识符
"lastmod" : Timestamp(2, 0), #块的版本
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77"), #块的版本
"ns" : "dba.account", #集合名
"min" : { #数据范围
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
},
"shard" : "mablevi" #所在分片
}
{
"_id" : "dba.account-name_\"9XXqCaBhfhPIXLq\"",
"lastmod" : Timestamp(4, 0),
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77"),
"ns" : "dba.account",
"min" : {
"name" : "9XXqCaBhfhPIXLq"
},
"max" : {
"name" : "RWINvgjYYQmbZds"
},
"shard" : "shard0002"
}
⑦ 记录所有的分片操作:config.changelog,拆分、迁移
拆分:
{
"_id" : "mongo1-2015-07-14T15:12:40-55a526e8f0432675a473009c",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:40.375Z"),
"what" : "multi-split", #拆分
"ns" : "dba.account",
"details" : { #拆分先后的信息
"before" : {
"min" : { #拆分前范围
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : { "$maxKey" : 1 }
}
},
"number" : 1, #第一个块
"of" : 3, #拆分成3个块
"chunk" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
},
"lastmod" : Timestamp(1, 1), #版本号
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77")
}
}
}
{
"_id" : "mongo1-2015-07-14T15:12:40-55a526e8f0432675a473009d",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:40.378Z"),
"what" : "multi-split",
"ns" : "dba.account",
"details" : {
"before" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : { "$maxKey" : 1 }
}
},
"number" : 2,
"of" : 3,
"chunk" : {
"min" : {
"name" : "9XXqCaBhfhPIXLq"
},
"max" : {
"name" : "okmjUUZuuKgftDC"
},
"lastmod" : Timestamp(1, 2), #版本号
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77")
}
}
}
{
"_id" : "mongo1-2015-07-14T15:12:40-55a526e8f0432675a473009e",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:40.381Z"),
"what" : "multi-split",
"ns" : "dba.account",
"details" : {
"before" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : { "$maxKey" : 1 }
}
},
"number" : 3,
"of" : 3,
"chunk" : {
"min" : {
"name" : "okmjUUZuuKgftDC"
},
"max" : {
"name" : { "$maxKey" : 1 }
},
"lastmod" : Timestamp(1, 3), #版本号
"lastmodEpoch" : ObjectId("55a526dd511d36716224fb77")
}
}
}
迁移:4个文档
{
"_id" : "mongo1-2015-07-14T15:12:41-55a526e9f0432675a47300a1",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:41.406Z"),
"what" : "moveChunk.start", #迁移开始
"ns" : "dba.account",
"details" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
},
"from" : "shard0000",
"to" : "mablevi"
}
}
{
"_id" : "mongo3-2015-07-14T15:12:42-55a526ead5bee637c12aadd4",
"server" : "mongo3",
"clientAddr" : ":27017",
"time" : ISODate("2015-07-14T15:12:42.419Z"),
"what" : "moveChunk.to", #from分片
"ns" : "dba.account",
"details" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
},
"step 1 of 5" : 327, #耗时,单位毫秒。检查命令参数
"step 2 of 5" : 301, #申请分布锁
"step 3 of 5" : 1, #连接到to分片
"step 4 of 5" : 0, #数据复制,每个分片都是直接和另一个分片、配置服务器直接连接
"step 5 of 5" : 407, #和to分片、配置服务器确认是否完成
"note" : "success"
}
}
{
"_id" : "mongo1-2015-07-14T15:12:42-55a526eaf0432675a47300a2",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:42.854Z"),
"what" : "moveChunk.commit", #提交
"ns" : "dba.account",
"details" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
},
"from" : "shard0000",
"to" : "mablevi",
"cloned" : NumberLong(1),
"clonedBytes" : NumberLong(94),
"catchup" : NumberLong(0),
"steady" : NumberLong(0)
}
}
{
"_id" : "mongo1-2015-07-14T15:12:43-55a526ebf0432675a47300a3",
"server" : "mongo1",
"clientAddr" : "192.168.200.52:53257",
"time" : ISODate("2015-07-14T15:12:43.258Z"),
"what" : "moveChunk.from", #to分片
"ns" : "dba.account",
"details" : {
"min" : {
"name" : { "$minKey" : 1 }
},
"max" : {
"name" : "9XXqCaBhfhPIXLq"
}, #步骤的时间为毫秒
"step 1 of 6" : 0, #迁移索引
"step 2 of 6" : 613, #删除块内的数据,清理数据残余
"step 3 of 6" : 2, #文档复制到to分片
"step 4 of 6" : 1029, #复制期间,在to分片上执行操作
"step 5 of 6" : 415, #等待to分片将新迁移过来的数据复制到集群
"step 6 of 6" : 0, #修改元数据完成迁移
"to" : "mablevi",
"from" : "shard0000",
"note" : "success"
}
}
⑧ 分片标签:config.tags,sh.addShardTag
mongos> db.tags.findOne()
{
"_id" : {
"ns" : "abc.number",
"min" : {
"num" : 0
}
},
"ns" : "abc.number",
"min" : {
"num" : 0
},
"max" : {
"num" : 20
},
"tag" : "AAA"
}
⑨ 分片设置:config.settings,设置分片块的大小和开启关闭均衡器
mongos> db.settings.find()
{ "_id" : "chunksize", "value" : 32 }
{ "_id" : "balancer", "stopped" : false }
⑩ 网络连接数: db.adminCommand({"connPoolStats":1})
mongos> db.adminCommand({"connPoolStats":1})
{
"hosts" : {
"192.168.200.51:20000::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:20000::30" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:20000,192.168.200.51:21000,192.168.200.51:22000::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:20000,192.168.200.51:21000,192.168.200.51:22000::30" : {
"available" : 3,
"created" : 422
},
"192.168.200.51:21000::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:21000::30" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:22000::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:22000::30" : {
"available" : 1,
"created" : 1
},
"192.168.200.51:40000::0" : {
"available" : 2,
"created" : 2
},
"192.168.200.52:40000::0" : {
"available" : 1,
"created" : 4
},
"192.168.200.53:40000::0" : {
"available" : 1,
"created" : 2
},
"192.168.200.53:50000::5" : {
"available" : 1,
"created" : 2
},
"192.168.200.53:50001::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.53:50001::5" : {
"available" : 1,
"created" : 2
},
"192.168.200.53:50002::0" : {
"available" : 1,
"created" : 1
},
"192.168.200.53:50002::5" : {
"available" : 1,
"created" : 2
},
"mablevi/192.168.200.53:50000,192.168.200.53:50001,192.168.200.53:50002::0" : {
"available" : 2,
"created" : 3
}
},
"replicaSets" : {
"mablevi" : {
"hosts" : [
{
"addr" : "192.168.200.53:50000",
"ok" : true,
"ismaster" : true,
"hidden" : false,
"secondary" : false,
"pingTimeMillis" : 1
},
{
"addr" : "192.168.200.53:50001",
"ok" : true,
"ismaster" : false,
"hidden" : false,
"secondary" : true,
"pingTimeMillis" : 1
},
{
"addr" : "192.168.200.53:50002",
"ok" : true,
"ismaster" : false,
"hidden" : false,
"secondary" : true,
"pingTimeMillis" : 1
}
]
}
},
"createdByType" : {
"master" : 22,
"set" : 3,
"sync" : 423
},
"totalAvailable" : 21, #总的可用连接
"totalCreated" : 448, #总创建的连接
"numDBClientConnection" : 40,
"numAScopedConnection" : 1,
"ok" : 1
}
View Code
2)拆分块管理
mongos记录每个块中插入多少数据,一旦达到某个阈值,就会检查是否需要拆分块,需要则更新配置服务器上这个块的元信息。具体过程:
① 客户端发起请求,mongos检查当前块的阈值点。
② 达到拆分的阈值点,mongos向分片发起一个拆分请求。
③ 分片计算拆分点,将信息发回给mongos。
④ mongos选择一个拆分点,将这些信息发给配置服务器。
阈值点和块大小相关,块大小可以直接设置,设置块大小:块大小不存在限制,因为当mongos不断重启,计数器可能永远无法达到阈值点。
mongos> db.settings.find({"_id":"chunksize"})
{ "_id" : "chunksize", "value" : 32 }
mongos> db.settings.save({"_id":"chunksize","value":64}) #块大小设置成64M
WriteResult({ "nMatched" : 1, "nUpserted" : 0, "nModified" : 1 })
mongos> db.settings.find({"_id":"chunksize"})
{ "_id" : "chunksize", "value" : 64 }
也可以对块进行手动拆分块:sh.splitAt('库.集合',{"name":"块值"})
mongos> db.chunks.findOne({"_id" : "abc.account-name_\"AIj2eqA3JsRxUxj\"",})
{
"_id" : "abc.account-name_\"AIj2eqA3JsRxUxj\"",
"lastmod" : Timestamp(13, 3),
"lastmodEpoch" : ObjectId("55a52ff1fdd9a605a0371327"),
"ns" : "abc.account",
"min" : {
"name" : "AIj2eqA3JsRxUxj"
},
"max" : {
"name" : "DM9BnUXfNIgPA15"
},
"shard" : "shard0000"
}
mongos> sh.splitAt('abc.account',{"name":"AIj7eqA3JsRxUxj"})
{ "ok" : 1 }
mongos> db.chunks.findOne({"_id" : "abc.account-name_\"AIj2eqA3JsRxUxj\"",})
{
"_id" : "abc.account-name_\"AIj2eqA3JsRxUxj\"",
"lastmod" : Timestamp(14, 2),
"lastmodEpoch" : ObjectId("55a52ff1fdd9a605a0371327"),
"ns" : "abc.account",
"min" : {
"name" : "AIj2eqA3JsRxUxj"
},
"max" : {
"name" : "AIj7eqA3JsRxUxj" #被成功拆分
},
"shard" : "shard0000"
}
上面看到把块 abc.account-name_\"AIj2eqA3JsRxUxj\" 拆分成:
AIj2eqA3JsRxUxj到DM9BnUXfNIgPA15 拆分成 AIj2eqA3JsRxUxj到AIj7eqA3JsRxUxj到DM9BnUXfNIgPA15
具体的块信息和操作信息见config库里的chunks和changlogs集合。
3)均衡器:均衡器是使用块数量的多少,而不是数据的大小进行均衡
均衡器负责数据的迁移,会周期性的检查分片是否存在不均衡,如果存在则会进行块的迁移,不会影响到mongos正常的操作。均衡器进行均衡的条件是块数量的多少,而不是块大小,比如A片有几个较大的块,B片有很多较小的块,则均衡器会把B的分片迁移至A片。
① 关闭/开启自动均衡器:
mongos> sh.setBalancerState(false) #关闭均衡器
mongos> db.settings.find({"_id" : "balancer"})
{ "_id" : "balancer", "stopped" : true}
mongos> sh.setBalancerState(true) #开启均衡器
mongos> db.settings.find({"_id" : "balancer"})
{ "_id" : "balancer", "stopped" : false}
mongos> sh.stopBalancer() #关闭均衡器
Waiting for active hosts...
Waiting for active host mongo2:30000 to recognize new settings... (ping : Mon Jul 27 2015 16:08:33 GMT+0800 (CST))
Waiting for the balancer lock...
Waiting again for active hosts after balancer is off...
mongos> db.settings.find({"_id" : "balancer"})
{ "_id" : "balancer", "stopped" : true}
mongos> sh.startBalancer() #开启均衡器
mongos> db.settings.find({"_id" : "balancer"})
{ "_id" : "balancer", "stopped" : false}
查看均衡器的锁:
mongos> use config
mongos> db.locks.find( { _id : "balancer" } ).pretty()
{
"_id" : "balancer",
"state" : 0, #0:非活动状态,1:正在获取,但还没有执行,2:正在均衡,迁移,有锁
"who" : "mongo3c:30000:1439446424:1804289383:Balancer:846930886",
"ts" : ObjectId("55ccb2e71778d3d54573d23d"),
"process" : "mongo3c:30000:1439446424:1804289383",
"when" : ISODate("2015-08-13T15:08:23.539Z"),
"why" : "doing balance round"
}
② 指定均衡器的工作时间:activeWindow
mongos> db.settings.update({"_id":"balancer"},{"$set":{"activeWindow":{"start":"07:00:00","stop":"03:00:00"}}},true) WriteResult({ "nMatched" : 1, "nUpserted" : 0, "nModified" : 1 })
mongos> db.settings.findOne({"_id":"balancer"})
{
"_id" : "balancer",
"stopped" : false,
"activeWindow" : { #凌晨7点到第二天凌晨3点开启均衡器功能。
"start" : "07:00:00",
"stop" : "03:00:00"
}
}
移除:
db.settings.update({ _id : "balancer" }, { $unset : { activeWindow : true } })
指定集合不进行/进行迁移:
sh.disableBalancing("students.grades") #关闭迁移
sh.enableBalancing("students.grades") #开启迁移
③ 手动迁移数据块:sh.moveChunk(),要是被迁移的数据块比较大则迁移比较慢,手动操作需要关闭均衡器
mongos> sh.moveChunk('abc.account',{"name":"W8evOO2dndQrmTy"},"mablevi") #把name为W8ev...(左下限值)的块迁移到mablevi分片里
{ "millis" : 19303, "ok" : 1 }
效果:
chunks:
mablevi 3
shard0000 4
shard0001 3
shard0002 3
after:
chunks:
mablevi 4
shard0000 3
shard0001 3
shard0002 3
View Code
④ 手动拆分+迁移数据:要是被迁移的数据快大小超出了范围(默认块大小),则不能被迁移:
chunk to big too move ...
方法一:设置块大小,大于被迁移的块。方法二:先手动拆分块,再迁移。
4)片键 :(参考权威指南第二版第15章)****
片键一般有三种形式:自增、随机、基于位置(Tag)。
各自的优缺点:
自增(升序)片键:
缺:所有的写请求都只在一个分片上,插入的文档总出现找最大的块里。分片的写入性能得不到提升,使得均衡处理数据变的困难。
优:在查询的时候能提高性能,数据有序写入,顺序。
随机片键:
缺:查询效率不高,数据分布分散。
优:写入比较均衡,写入请求性能比较高。
基于位置(Tag):
通过sh.addShardTag把一个或则多个分片设置成一个tag,写入指定tag。
自增和随机分片好理解,就不做说明了,下面说明Tag片键的使用方法。
① 为分片指定tag:sh.addShardTag('shardName','tagName')
mongos> sh.addShardTag("mablevi","AAA")
mongos> sh.addShardTag("shard0000","BBB")
② 为tag指定规则:sh.addTagRange('库.集合',{minkey:num},{maxkey:num},tagName)
mongos> sh.addTagRange("abc.number",{"num":0},{"num":20},"AAA")
mongos> sh.addTagRange("abc.number",{"num":21},{"num":50},"BBB")
①和②的意思是把分片mablevi、shard000指定AAA、BBB标签。并且0到20的数据写到AAA标签里,21到50的数据写到BBB标签里。其他范围的数据也可以写进。
③ 数据写入到指定的标签里,****比如想把一些指定的数据写入到指定的分片中,则:
写入数据:
mongos> db.number.find()
{ "_id" : ObjectId("55b608d7e7baf9146fe15ac3"), "num" : 21, "age" : 21 } #写到mablevi分片
{ "_id" : ObjectId("55b608d0e7baf9146fe15ac2"), "num" : 1, "age" : 11 } #写到shard000分片
单独进入到各个分片的mongod中看到,要写入的数据已被成功指定到分片。
mongos> sh.status()
--- Sharding Status ---
...
...
abc.number
shard key: { "num" : 1 }
chunks:
mablevi 1
shard0000 2
{ "num" : { "$minKey" : 1 } } -->> { "num" : 0 } on : shard0000 Timestamp(2, 1) #数据范围
{ "num" : 0 } -->> { "num" : 21 } on : mablevi Timestamp(3, 1) #数据范围
{ "num" : 21 } -->> { "num" : { "$maxKey" : 1 } } on : shard0000 Timestamp(3, 0) #数据范围
tag: AAA { "num" : 0 } -->> { "num" : 20 }
tag: BBB { "num" : 21 } -->> { "num" : 50 }
比如分片mablevi是在SSD硬盘上的分片,其余都是普通的硬盘,现在把数据都写入到SSD标签的分片,提高写的性能,注意:这并不会影响集合的分发迁移,数据仍会被均衡器迁移到其他分片:
mongos> sh.addShardTag("mablevi","high") #把分片mablevi,添加到high标签里
mongos> sh.addTagRange('abc.ttt',{"age":MinKey},{"age":MaxKey},"high") #片键指定MinKey和MaxKey,把所有数据都写入改分片
写入数据并查看:
mongos> sh.status()
...
shards:
{ "_id" : "mablevi", "host" : "mablevi/192.168.200.53:50000,192.168.200.53:50001,192.168.200.53:50002", "tags" : [ "AAA", "high" ] } #分片的标签名
...
abc.ttt
shard key: { "age" : 1 }
chunks:
mablevi 1
{ "age" : { "$minKey" : 1 } } -->> { "age" : { "$maxKey" : 1 } } on : mablevi Timestamp(2, 0)
tag: high { "age" : { "$minKey" : 1 } } -->> { "age" : { "$maxKey" : 1 } }
进入到mablevi分片里查看,数据都写入在该分片,后续数据继续写入到达阈值后则均衡器会进行数据迁移。要想把历史数据进行迁移,保证其他分片数据均衡,则只需要在上面的基础上把MinKey改成当前值即可:
mongos> sh.shardCollection('abc.xxx',{"_id":1}) #把自带的_id 设为片键
{ "collectionsharded" : "abc.xxx", "ok" : 1 }
mongos> sh.addShardTag('shard0001','ssd') #设置标签
mongos> sh.addTagRange('abc.xxx',{"_id":ObjectId()},{"_id":MaxKey},"ssd") #ObjectId()表示当前值
查看:
mongos> sh.status()
...
abc.xxx
shard key: { "_id" : 1 }
chunks:
shard0000 1
{ "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$maxKey" : 1 } } on : shard0000 Timestamp(1, 0)
tag: ssd { "_id" : ObjectId("55b6431f54858df435b6ba63") } -->> { "_id" : { "$maxKey" : 1 } } #当前值到正无穷大
上面tag建立成功,数据也写到指定的分片中,现在需要把写入到ssd标签中的历史数据进行迁移,更新标签范围:
config库下:
mongos> db.tags.findOne({ns:"abc.xyz"}).min #查看最小值
{ "_id" : ObjectId("55b6463b54858df435b6ba68") }
mongos> db.tags.update({ns:"abc.xyz"},{"$set":{"min":ObjectId()}}) #把之前的最小值更新更当前值
WriteResult({ "nMatched" : 1, "nUpserted" : 0, "nModified" : 1 })
mongos> db.tags.findOne({ns:"abc.xyz"}).min
ObjectId("55b647f654858df435b6ba6c")
更新完之后查看:
刷新:
mongos> db.adminCommand({"flushRouterConfig":1})
{ "flushed" : true, "ok" : 1 }
查看
mongos> sh.status()
--- Sharding Status --
abc.xyz
shard key: { "_id" : 1 }
chunks:
shard0000 1
shard0002 1
{ "_id" : { "$minKey" : 1 } } -->> { "_id" : ObjectId("55b6463b54858df435b6ba68") } on : shard0000 Timestamp(2, 1)
{ "_id" : ObjectId("55b6463b54858df435b6ba68") } -->> { "_id" : { "$maxKey" : 1 } } on : shard0002 Timestamp(2, 0) #历史数据被迁移到shard0002中
tag: ssd ObjectId("55b647f654858df435b6ba6c") -->> { "_id" : { "$maxKey" : 1 } } #查看到块的范围已经被更新
如果该模式下出现问题,一个SSD分片写入满足不了要求,则需要删除tag,重新设置。
④ 删除标签:sh.removeShardTag(),标签被删除之后,数据不会丢失,后续的读写不会因为没有tag而不成功,但数据不会被迁移到其他的分片。****
mongos> sh.removeShardTag('mablevi','high')
删除标签后,由于标签范围还在:
tag: ssd ObjectId("55b647f654858df435b6ba6c") -->> { "_id" : { "$maxKey" : 1 } }
继续删除标签范围:****sh.removeTagRange
3.0之前:进入到config库,删除tags集合上的和mablevi分片相关的信息。3.0之后:sh.removeTagRange('abc.xyz',ObjectId("55b647f654858df435b6ba6c"),{ "_id" : { "$maxKey" : 1 },'ssd')
5)删除分片
db.runCommand({"removeshard":"mablevi"}) #删除mablevi分片
db.adminCommand({"movePrimary":"dba","to":"shard0001"}) #移动dba的主分片到shard0001.
6)查看分片成员:db.runCommand({ listshards : 1 })
mongos> db.runCommand({ listshards : 1 })
{
"shards" : [
{
"_id" : "shard0000",
"host" : "192.168.200.51:40000",
"tags" : [
"BBB"
]
},
{
"_id" : "shard0001",
"host" : "192.168.200.52:40000",
"tags" : [ ]
},
{
"_id" : "shard0002",
"host" : "192.168.200.53:40000",
"tags" : [ ]
},
{
"_id" : "mablevi",
"host" : "mablevi/192.168.200.53:50000,192.168.200.53:50001,192.168.200.53:50002",
"tags" : [
"AAA"
],
"draining" : true #还在迁移
}
],
"ok" : 1
}
注意:要是在mablevi分片上设置了标签,需要把标签删除,包括标签范围(在config.tags里remove),分片才能被删除掉。数据不会丢失,会被迁移到其他分片:下面表示删除分片成功:
mongos> db.runCommand({"removeshard":"mablevi"})
{
"msg" : "removeshard completed successfully",
"state" : "completed",
"shard" : "mablevi",
"ok" : 1
}
7)查看各分片的状态:mongostat --discover
root@mongo1:~# mongostat --discover -udba -pdba --authenticationDatabase admin --port=30000
insert query update delete getmore command flushes mapped vsize res faults qr|qw ar|aw netIn netOut conn set repl time
localhost:30000 *0 *0 *0 *0 0 1|0 0 160.0M 39.0M 0 0|0 0|0 79b 6k 1 RTR 11:12:37
192.168.200.51:40000 *0 *0 *0 *0 0 1|0 0 320.0M 941.0M 209.0M 0 0|0 0|0 79b 10k 10 11:12:38
192.168.200.52:40000 *0 *0 *0 *0 0 1|0 0 448.0M 1.1G 192.0M 0 0|0 0|0 79b 10k 9 11:12:38
192.168.200.53:40000 *0 *0 *0 *0 0 1|0 0 448.0M 1.1G 154.0M 0 0|0 0|0 79b 10k 9 11:12:38
localhost:30000 *0 1 *0 *0 0 1|0 0 160.0M 39.0M 0 0|0 0|0 126b 6k 1 RTR 11:12:38
8)