MongoDB 高可用集群 -复制集搭建(mongodb复制原理)
itomcoil 2025-06-08 21:51 2 浏览
环境准备
mongodb-4.4.14为例,多台(最少2台)虚拟机
原理
MongoDB复制集由一组MongoDB实例(进程)组成,包含一个Primary节点和多个Secondary节点,MongoDB Driver(客户端)的所有数据都写入Primary,Secondary从Primary同步写入的数据,以保持复制集内所有成员存储相同的数据集,提供数据的高可用。
下图(图片源于MongoDB官方文档)是一个典型的MongoDB复制集,包含一个Primary节点和2个Secondary节点。
数据同步
Primary与Secondary之间通过oplog来同步数据,Primary上的写操作完成后,会向特殊的local.oplog.rs集合写入一条oplog,Secondary不断的从Primary获取新的oplog并应用。
因oplog的数据会不断增加,local.oplog.rs被设置成为一个capped集合,当容量达到配置上限时,会将最旧的数据删除掉。另外考虑到oplog在Secondary上可能重复应用,oplog必须具有幂等性,即重复应用也会得到相同的结果。
如下oplog的格式,包含ts、h、op、ns、o等字段。
{
"ts" : Timestamp(1446011584, 2),
"h" : NumberLong("1687359108795812092"),
"v" : 2,
"op" : "i",
"ns" : "test.nosql",
"o" : { "_id" : ObjectId("563062c0b085733f34ab4129"), "name" : "mongodb", "score" : "100" }
}
- ts:操作时间,当前timestamp + 计数器,计数器每秒都被重置。
- h:操作的全局唯一标识。
- v:oplog版本信息。
- op:操作类型。
- i:插入操作。
- u:更新操作。
- d:删除操作。
- c:执行命令(如createDatabase,dropDatabase)。
- n:空操作,特殊用途。
- ns:操作针对的集合。
- o:操作内容,如果是更新操作。
- o2:操作查询条件,仅update操作包含该字段。
Secondary初次同步数据时,会先执行init sync,从Primary(或其他数据更新的Secondary)同步全量数据,然后不断通过执行tailable cursor从Primary的local.oplog.rs集合里查询最新的oplog并应用到自身。
异常处理(rollback)
当Primary宕机时,如果有数据未同步到Secondary,并且在Primary重新加入时,新的Primary上已经发生了写操作,则旧Primary需要回滚部分操作,以保证数据集与新的Primary一致。旧Primary将回滚的数据写到单独的rollback目录下,数据库管理员可根据需要使用mongorestore进行恢复。
- 下载mongodb-4.4.14版本
- 上传到服务器并解压:/usr/local/mongodb-4.4.14
- 切换目录到
cd /usr/local/mongodb-4.4.14
在mongodb-4.4.14目录下 创建 conf;data;logs;pids 文件夹(命令:mkdir conf data logs pids)
- 在conf文件夹下创建mongo.conf(没配置权限认证)
cd conf
- 配置mongo.conf
#编辑
vim mongo.conf
systemLog:
quiet: false
#日志保存路径
path: /usr/local/mongodb-4.4.14/logs/mongodb.log
#日志不追加写入(每天生成一个日志文件)
logAppend: false
# 日志输出目的地,可以指定为 “file” 或者“syslog”,表述输出到日志文件,如果不指定,则会输出到标准输出中(standard output)
destination: file
processManagement:
#开启子进程
fork: true
#进程描述文件
pidFilePath: /usr/local/mongodb-4.4.14/pids/mongodb.pid
net:
#允许哪些ip访问
bindIp: 0.0.0.0
#mongo端口
port: 37600
#最大连接数
maxIncomingConnections: 5000
#开启输入验证
wireObjectCheck: true
storage:
#数据保存路径
dbPath: /usr/local/mongodb-4.4.14/data
#是否开启 journal 日志持久存储,journal 日志用来数据恢复,是 mongod 最基础的特性,通常用于故障恢复
journal:
enabled: true
#设置引擎
engine: wiredTiger
operationProfiling:
#指定慢查询时间,单位毫秒,如果打开功能,则向system.profile集合写入数据
slowOpThresholdMs: 300
#off、slowOp、all,分别对应关闭,仅打开慢查询,记录所有操作
mode: slowOp
#复制集相关配置
replication:
replSetName: rs0
#开启数据安全认证模式
#security:
# keyFile: mongodb-keyfile
# authorization: enabled
- 启动MongoDB
切换到MongoDB的bin目录
cd /usr/local/mongodb-4.4.14/bin
#执行启动命令
./mongod -f ../conf/mongo.conf
-----------------每台机器都做以上操作---完成MongoDB的安装--------------
#执行关闭命令
./mongod -f ../conf/mongo.conf --shutdown
- 连接 MongoDB
cd /usr/local/mongodb-4.4.14/bin
#(随机选择一台机器)无密码连接命令
./mongo --host ip:port
- 在节点中初始化集群节点
rs.initiate({
_id:"rs0",
members:[
{_id:0, host:"ip:端口", priority:2},
{_id:1, host:"ip:端口", priority:1},
# arbiterOnly节点可选,在服务器台数较少时,不需要此节点
{_id:2, host:"ip:端口", arbiterOnly:true}
]
});
刚执行一小段时间内不会出现主节点,主节点的选举有一个过程
- 在主节点中添加和删除节点(节点管理)
#添加节点
rs.add({host:"ip:端口"})
#删除节点
rs.remove("ip:端口")
- not master and slaveok=false”错误解决方法
在SECONDARY节点中,操作数据库时有可能会出现此错误,SECONDARY是不允许读写的,如果非要解决命令如下:
rs.slaveOk();
如果命令过期,按照提示重新修改命令再次执行,这样就副本节点可读
- 查询数据库列表命令
show dbs
admin 0.000GB
config 0.000GB
local 0.959GB
- 切换到admin数据库
use admin
- 创建管理员账号(内主数据库admin)[优先关闭权限认证配置,用户创建成功后再开启权限配置]
db.createUser(
{
user: "root",
pwd: "root123456",
roles: [ { role: "root", db: "admin" } ]
}
)
- admin数据库授权账号
#如果返回1,则表示成功
db.auth("root", "root123456")
- 退出系统,关闭无密码连接
exit
- 用密码连接mongodb
./mongo –host localhost:37600 -u "root" --authenticationDatabase "admin" -p
- 输入密码
root123456
----------------以上完成集群和账号创建
-----------------------------
集群安全认证
- 关闭集群
先关闭从节点,最后关闭主节点防止主从切换,开启权限验证配置,在配置中打开以下几项配置
#开启数据安全认证模式
security:
keyFile: mongodb-keyfile
authorization: enabled
- mongodb-keyfile文件
生成mongodb-keyfile文件时,切换到MongoDB的bin目录下执行以下命令生成key文件,所有集群都使用一个mongodb-keyfile文件
/usr/local/mongodb-4.4.14/bin
#生成mongodb-keyfile文件命令
openssl rand -base64 741 > mongodb-keyfile
#授权key文件
chmod 600 /usr/local/mongodb-4.4.14/bin/mongodb-keyfile
把mongodb-keyfile文件分别复制到其他机器的
/usr/local/mongodb-4.4.14/bin目录下,并且授权。
- 开启集群
先启动主节点,在启动从节点;切换到MongoDB的bin目录,执行开启命令:
./mongod -f ../conf/mongo.conf
- MongoDB复制集群对外的连接地址
mongodb://数据库用户名:数据库用户密码@主数据库ip:端口,从数据库ip1:端口,从主数据库ip2:端口/业务数据库?replicaSet=rs0&authSource=业务数据库&readPerference=secondarypreferred
复制集的读写设置
- Read Preference
默认情况下,复制集的所有读请求都发到Primary,Driver可通过设置Read Preference来将读请求路由到其他的节点。
1.primary:默认规则,所有读请求发到Primary。
2.primaryPreferred:Primary优先,如果Primary不可达,请求Secondary。
3.secondary:所有的读请求都发到Secondary。
4.secondaryPreferred:Secondary优先,当所有Secondary不可达时,请求Primary。
5.nearest:读请求发送到最近的可达节点上(通过ping探测得出最近的节点)。
- Write Concern
默认情况下,Primary完成写操作即返回,Driver可通过配置Write Concern来设置写成功的规则,详情请参见Write Concern。如下的write concern规则设置写必须在大多数节点上成功,超时时间为5秒。
#设置方式是针对单个请求
db.products.insert(
{ item: "envelopes", qty : 100, type: "Clasp" },
{ writeConcern: { w: majority, wtimeout: 5000 } }
)
#修改副本集默认的write concern,这样就不用单独设置每个请求
cfg = rs.conf()
cfg.settings = {}
cfg.settings.getLastErrorDefaults = { w: "majority", wtimeout: 5000 }
rs.reconfig(cfg)
-------------------MongoDB 高可用集搭 -复制集搭建完成------------------
相关推荐
- 蚂蚁金服用什么技术这么厉害?(蚂蚁金服是怎么赚钱的?)
-
阿里妹导读:本文来自蚂蚁金服人工智能部认知计算组的基础算法团队,文章提出一整套创新算法与架构,通过对TensorFlow底层的弹性改造,解决了在线学习的弹性特征伸缩和稳定性问题,并以GroupLass...
- R数据分析:逻辑斯蒂回归与泊松回归
-
今天将逻辑回归和泊松回归放一起给大家写写,因为它两在R中的做法都非常的相似和非常的简单,同时还有两个回归的图形化表达。什么时候用逻辑回归Logisticregression,alsoknown...
- 想学好Python数据分析,一定要掌握的重要模块之Statsmodels
-
Statsmodels是Python中一个功能强大且广泛使用的统计建模和经济计量学库。它允许用户构建各种统计模型,执行假设检验,进行预测,并对模型结果进行详细的诊断和可视化。以下是statsmodel...
- Python实现概率分布,学数据统计的需要收藏
-
作者:Runsen二项分布包含n个相同的试验每次试验只有两个可能的结果:“成功”或“失败”。出现成功的概率p对每一次试验是相同的,失败的概率q也是如此,且p+q=1。试验是互相独立的。试验成功或失败...
- 60行代码实现经典论文:0.7秒搞定泊松盘采样,比Numpy快100倍
-
编辑整理自太极图形量子位|公众号QbitAI由随机均匀的点组成的图案,在动植物身上已经很常见了。像杨梅、草莓、荔枝、红毛丹这样的水果,表面都有颗粒或者毛发状的结构,它们随机、均匀地散布在水果表...
- linux ubuntu 安装mongo教程(实践步骤)
-
最近需要在linux上安装mongdb由于之前没安装过。在网上搜索到很多安装方法,但有的按照步骤操作是不行的。前后共花费了半天时间找到一个可行的步骤,分享给大家,不必走弯路。如果安装过程遇到技术问题...
- MongoDB 分片集群方案及其优缺点分析
-
一、MongoDB分片集群架构核心组件1.Mongos(路由节点)-无状态代理,客户端连接入口-负责查询路由、结果聚合-需部署多个以实现高可用2.ConfigServer(配置服务器)-...
- CentOS7安装Mongodb 4.x.x(CentOS7安装yum源的方法)
-
1、下载安装包curl-Ohttps://fastdl.mongodb.org/linux/mongodb-linux-x86_64-4.0.6.tgz2、解压安装包tar-zxvfmon...
- MongoDB+GridFS存储文件方案(mongodb存储在哪里)
-
GridFS是MongoDB的一个内置功能,它提供一组文件操作的API以利用MongoDB存储文件,GridFS的基本原理是将文件保存在两个Collection中,一个保存文件索引,一个保存文...
- 如何使用 GridFS 、 Node.js、Mongodb和Multer 管理文件存储?
-
什么是GridFs?GridFs是用于存储音频、视频或图像等大型文件的mongodb规范……它最适用于存储超过mongodb文档大小限制(16MB)的文件。此外,无论文件大小如何,当您想...
- Mongodb 集群搭建方法(mongodb集群状态startup2)
-
#大有学问#MongoDB是一个非关系型数据库(NoSQL),提供高性能、高可用性和自动扩展的特点。在MongoDB中,可以通过搭建集群实现这些特性。MongoDB集群主要有两种类型:副本集(...
- 记一次生产事故:MongoDB数据分布不均的解决方案
-
推荐阅读:我为什么放弃MySQL,选择了MongoDB?看到这个数据你就会明白了事故集合:可以很明显可以看到我们这个集合的数据严重分布不均匀。一共有8个分片,面对这个情况我首先想到的是手动拆分数据块,...
- 百万级高并发mongodb集群性能数十倍提升优化实践
-
背景线上某集群峰值TPS超过100万/秒左右(主要为写流量,读流量很低),峰值tps几乎已经到达集群上限,同时平均时延也超过100ms,随着读写流量的进一步增加,时延抖动严重影响业务可用性。该集群采用...
- MongoDB 常见问题处理(二)(mongodb数据处理)
-
MongoDB数据库中,删除请求数超过阈值的处理方案?数据删除发生在文档迁移过程中,MongoDB4.0以上版本均衡阈值很小,容易发生迁移,频繁的迁移数据导致delete数据较大,同时还会导致CPU负...
- 实战:docker搭建FastDFS文件系统并集成SpringBoot
-
实战:docker搭建FastDFS文件系统并集成SpringBoot前言15年的时候,那时候云存储还远远没有现在使用的这么广泛,归根结底就是成本和安全问题,记得那时候我待的公司是做建站开发的,前期用...
- 一周热门
- 最近发表
-
- 蚂蚁金服用什么技术这么厉害?(蚂蚁金服是怎么赚钱的?)
- R数据分析:逻辑斯蒂回归与泊松回归
- 想学好Python数据分析,一定要掌握的重要模块之Statsmodels
- Python实现概率分布,学数据统计的需要收藏
- 60行代码实现经典论文:0.7秒搞定泊松盘采样,比Numpy快100倍
- linux ubuntu 安装mongo教程(实践步骤)
- MongoDB 分片集群方案及其优缺点分析
- CentOS7安装Mongodb 4.x.x(CentOS7安装yum源的方法)
- MongoDB+GridFS存储文件方案(mongodb存储在哪里)
- 如何使用 GridFS 、 Node.js、Mongodb和Multer 管理文件存储?
- 标签列表
-
- ps图案在哪里 (33)
- super().__init__ (33)
- python 获取日期 (34)
- 0xa (36)
- super().__init__()详解 (33)
- python安装包在哪里找 (33)
- linux查看python版本信息 (35)
- python怎么改成中文 (35)
- php文件怎么在浏览器运行 (33)
- eval在python中的意思 (33)
- python安装opencv库 (35)
- python div (34)
- sticky css (33)
- python中random.randint()函数 (34)
- python去掉字符串中的指定字符 (33)
- python入门经典100题 (34)
- anaconda安装路径 (34)
- yield和return的区别 (33)
- 1到10的阶乘之和是多少 (35)
- python安装sklearn库 (33)
- dom和bom区别 (33)
- js 替换指定位置的字符 (33)
- python判断元素是否存在 (33)
- sorted key (33)
- shutil.copy() (33)