百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

MongoDB 高可用集群 -复制集搭建(mongodb复制原理)

itomcoil 2025-06-08 21:51 2 浏览

环境准备

mongodb-4.4.14为例,多台(最少2台)虚拟机

原理

MongoDB复制集由一组MongoDB实例(进程)组成,包含一个Primary节点和多个Secondary节点,MongoDB Driver(客户端)的所有数据都写入Primary,Secondary从Primary同步写入的数据,以保持复制集内所有成员存储相同的数据集,提供数据的高可用。

下图(图片源于MongoDB官方文档)是一个典型的MongoDB复制集,包含一个Primary节点和2个Secondary节点。


数据同步

Primary与Secondary之间通过oplog来同步数据,Primary上的写操作完成后,会向特殊的local.oplog.rs集合写入一条oplog,Secondary不断的从Primary获取新的oplog并应用。

因oplog的数据会不断增加,local.oplog.rs被设置成为一个capped集合,当容量达到配置上限时,会将最旧的数据删除掉。另外考虑到oplog在Secondary上可能重复应用,oplog必须具有幂等性,即重复应用也会得到相同的结果。

如下oplog的格式,包含ts、h、op、ns、o等字段。

    {
      "ts" : Timestamp(1446011584, 2),
      "h" : NumberLong("1687359108795812092"), 
      "v" : 2, 
      "op" : "i", 
      "ns" : "test.nosql", 
      "o" : { "_id" : ObjectId("563062c0b085733f34ab4129"), "name" : "mongodb", "score" : "100" } 
    }
  • ts:操作时间,当前timestamp + 计数器,计数器每秒都被重置。
  • h:操作的全局唯一标识。
  • v:oplog版本信息。
  • op:操作类型。
  • i:插入操作。
  • u:更新操作。
  • d:删除操作。
  • c:执行命令(如createDatabase,dropDatabase)。
  • n:空操作,特殊用途。
  • ns:操作针对的集合。
  • o:操作内容,如果是更新操作。
  • o2:操作查询条件,仅update操作包含该字段。

Secondary初次同步数据时,会先执行init sync,从Primary(或其他数据更新的Secondary)同步全量数据,然后不断通过执行tailable cursor从Primary的local.oplog.rs集合里查询最新的oplog并应用到自身。

异常处理(rollback)

当Primary宕机时,如果有数据未同步到Secondary,并且在Primary重新加入时,新的Primary上已经发生了写操作,则旧Primary需要回滚部分操作,以保证数据集与新的Primary一致。旧Primary将回滚的数据写到单独的rollback目录下,数据库管理员可根据需要使用mongorestore进行恢复。



  • 下载mongodb-4.4.14版本
  • 上传到服务器并解压:/usr/local/mongodb-4.4.14
  • 切换目录到
cd /usr/local/mongodb-4.4.14

在mongodb-4.4.14目录下 创建 conf;data;logs;pids 文件夹(命令:mkdir conf data logs pids)

  • 在conf文件夹下创建mongo.conf(没配置权限认证)
cd conf
  • 配置mongo.conf
#编辑
vim mongo.conf
systemLog:
  quiet: false
  #日志保存路径
  path: /usr/local/mongodb-4.4.14/logs/mongodb.log
  #日志不追加写入(每天生成一个日志文件)
  logAppend: false
  # 日志输出目的地,可以指定为 “file” 或者“syslog”,表述输出到日志文件,如果不指定,则会输出到标准输出中(standard output)
  destination: file

processManagement:
  #开启子进程
  fork: true
  #进程描述文件
  pidFilePath: /usr/local/mongodb-4.4.14/pids/mongodb.pid
net:
  #允许哪些ip访问
  bindIp: 0.0.0.0
  #mongo端口
  port: 37600
  #最大连接数
  maxIncomingConnections: 5000
  #开启输入验证
  wireObjectCheck: true
storage:
  #数据保存路径
  dbPath: /usr/local/mongodb-4.4.14/data
  #是否开启 journal 日志持久存储,journal 日志用来数据恢复,是 mongod 最基础的特性,通常用于故障恢复
  journal:
    enabled: true
  #设置引擎
  engine: wiredTiger
operationProfiling:
  #指定慢查询时间,单位毫秒,如果打开功能,则向system.profile集合写入数据
  slowOpThresholdMs: 300
  #off、slowOp、all,分别对应关闭,仅打开慢查询,记录所有操作
  mode: slowOp

#复制集相关配置
replication:
  replSetName: rs0

#开启数据安全认证模式
#security:
#  keyFile: mongodb-keyfile
#  authorization: enabled

  • 启动MongoDB

切换到MongoDB的bin目录

cd /usr/local/mongodb-4.4.14/bin
#执行启动命令
./mongod -f ../conf/mongo.conf

-----------------每台机器都做以上操作---完成MongoDB的安装--------------

#执行关闭命令
./mongod -f ../conf/mongo.conf --shutdown
  • 连接 MongoDB
cd /usr/local/mongodb-4.4.14/bin
#(随机选择一台机器)无密码连接命令
./mongo --host ip:port
  • 在节点中初始化集群节点
rs.initiate({
	    _id:"rs0",
	    members:[
	        {_id:0, host:"ip:端口", priority:2},
	        {_id:1, host:"ip:端口", priority:1},

					# arbiterOnly节点可选,在服务器台数较少时,不需要此节点
	        {_id:2, host:"ip:端口", arbiterOnly:true}
	    ]
	});

刚执行一小段时间内不会出现主节点,主节点的选举有一个过程

  • 在主节点中添加和删除节点(节点管理)
#添加节点
rs.add({host:"ip:端口"})

#删除节点
rs.remove("ip:端口")
  • not master and slaveok=false”错误解决方法

在SECONDARY节点中,操作数据库时有可能会出现此错误,SECONDARY是不允许读写的,如果非要解决命令如下:

rs.slaveOk();

如果命令过期,按照提示重新修改命令再次执行,这样就副本节点可读

  • 查询数据库列表命令
show dbs

admin 0.000GB

config 0.000GB

local 0.959GB

  • 切换到admin数据库
use admin
  • 创建管理员账号(内主数据库admin)[优先关闭权限认证配置,用户创建成功后再开启权限配置]
db.createUser(
  {
    user: "root",
    pwd: "root123456",
    roles: [ { role: "root", db: "admin" } ]
  }
)
  • admin数据库授权账号
#如果返回1,则表示成功
db.auth("root", "root123456")
  • 退出系统,关闭无密码连接
exit
  • 用密码连接mongodb
./mongo –host localhost:37600 -u "root" --authenticationDatabase "admin" -p
  • 输入密码
root123456

----------------以上完成集群和账号创建
-----------------------------

集群安全认证

  • 关闭集群

先关闭从节点,最后关闭主节点防止主从切换,开启权限验证配置,在配置中打开以下几项配置

#开启数据安全认证模式
security:
	keyFile: mongodb-keyfile
	authorization: enabled
  • mongodb-keyfile文件

生成mongodb-keyfile文件时,切换到MongoDB的bin目录下执行以下命令生成key文件,所有集群都使用一个mongodb-keyfile文件

/usr/local/mongodb-4.4.14/bin
#生成mongodb-keyfile文件命令
openssl rand -base64 741 > mongodb-keyfile

#授权key文件
chmod 600 /usr/local/mongodb-4.4.14/bin/mongodb-keyfile

把mongodb-keyfile文件分别复制到其他机器的
/usr/local/mongodb-4.4.14/bin目录下,并且授权。

  • 开启集群

先启动主节点,在启动从节点;切换到MongoDB的bin目录,执行开启命令:

./mongod -f ../conf/mongo.conf
  • MongoDB复制集群对外的连接地址

mongodb://数据库用户名:数据库用户密码@主数据库ip:端口,从数据库ip1:端口,从主数据库ip2:端口/业务数据库?replicaSet=rs0&authSource=业务数据库&readPerference=secondarypreferred

复制集的读写设置

  • Read Preference

默认情况下,复制集的所有读请求都发到Primary,Driver可通过设置Read Preference来将读请求路由到其他的节点。

1.primary:默认规则,所有读请求发到Primary。

2.primaryPreferred:Primary优先,如果Primary不可达,请求Secondary。

3.secondary:所有的读请求都发到Secondary。

4.secondaryPreferred:Secondary优先,当所有Secondary不可达时,请求Primary。

5.nearest:读请求发送到最近的可达节点上(通过ping探测得出最近的节点)。

  • Write Concern

默认情况下,Primary完成写操作即返回,Driver可通过配置Write Concern来设置写成功的规则,详情请参见Write Concern。如下的write concern规则设置写必须在大多数节点上成功,超时时间为5秒。

#设置方式是针对单个请求    
db.products.insert(
      { item: "envelopes", qty : 100, type: "Clasp" },
      { writeConcern: { w: majority, wtimeout: 5000 } }
    )

#修改副本集默认的write concern,这样就不用单独设置每个请求
cfg = rs.conf()
cfg.settings = {}
cfg.settings.getLastErrorDefaults = { w: "majority", wtimeout: 5000 }
rs.reconfig(cfg)


-------------------MongoDB 高可用集搭 -复制集搭建完成------------------


相关推荐

蚂蚁金服用什么技术这么厉害?(蚂蚁金服是怎么赚钱的?)

阿里妹导读:本文来自蚂蚁金服人工智能部认知计算组的基础算法团队,文章提出一整套创新算法与架构,通过对TensorFlow底层的弹性改造,解决了在线学习的弹性特征伸缩和稳定性问题,并以GroupLass...

R数据分析:逻辑斯蒂回归与泊松回归

今天将逻辑回归和泊松回归放一起给大家写写,因为它两在R中的做法都非常的相似和非常的简单,同时还有两个回归的图形化表达。什么时候用逻辑回归Logisticregression,alsoknown...

想学好Python数据分析,一定要掌握的重要模块之Statsmodels

Statsmodels是Python中一个功能强大且广泛使用的统计建模和经济计量学库。它允许用户构建各种统计模型,执行假设检验,进行预测,并对模型结果进行详细的诊断和可视化。以下是statsmodel...

Python实现概率分布,学数据统计的需要收藏

作者:Runsen二项分布包含n个相同的试验每次试验只有两个可能的结果:“成功”或“失败”。出现成功的概率p对每一次试验是相同的,失败的概率q也是如此,且p+q=1。试验是互相独立的。试验成功或失败...

60行代码实现经典论文:0.7秒搞定泊松盘采样,比Numpy快100倍

编辑整理自太极图形量子位|公众号QbitAI由随机均匀的点组成的图案,在动植物身上已经很常见了。像杨梅、草莓、荔枝、红毛丹这样的水果,表面都有颗粒或者毛发状的结构,它们随机、均匀地散布在水果表...

linux ubuntu 安装mongo教程(实践步骤)

最近需要在linux上安装mongdb由于之前没安装过。在网上搜索到很多安装方法,但有的按照步骤操作是不行的。前后共花费了半天时间找到一个可行的步骤,分享给大家,不必走弯路。如果安装过程遇到技术问题...

MongoDB 分片集群方案及其优缺点分析

一、MongoDB分片集群架构核心组件1.Mongos(路由节点)-无状态代理,客户端连接入口-负责查询路由、结果聚合-需部署多个以实现高可用2.ConfigServer(配置服务器)-...

CentOS7安装Mongodb 4.x.x(CentOS7安装yum源的方法)

1、下载安装包curl-Ohttps://fastdl.mongodb.org/linux/mongodb-linux-x86_64-4.0.6.tgz2、解压安装包tar-zxvfmon...

MongoDB+GridFS存储文件方案(mongodb存储在哪里)

GridFS是MongoDB的一个内置功能,它提供一组文件操作的API以利用MongoDB存储文件,GridFS的基本原理是将文件保存在两个Collection中,一个保存文件索引,一个保存文...

如何使用 GridFS 、 Node.js、Mongodb和Multer 管理文件存储?

什么是GridFs?GridFs是用于存储音频、视频或图像等大型文件的mongodb规范……它最适用于存储超过mongodb文档大小限制(16MB)的文件。此外,无论文件大小如何,当您想...

Mongodb 集群搭建方法(mongodb集群状态startup2)

#大有学问#MongoDB是一个非关系型数据库(NoSQL),提供高性能、高可用性和自动扩展的特点。在MongoDB中,可以通过搭建集群实现这些特性。MongoDB集群主要有两种类型:副本集(...

记一次生产事故:MongoDB数据分布不均的解决方案

推荐阅读:我为什么放弃MySQL,选择了MongoDB?看到这个数据你就会明白了事故集合:可以很明显可以看到我们这个集合的数据严重分布不均匀。一共有8个分片,面对这个情况我首先想到的是手动拆分数据块,...

百万级高并发mongodb集群性能数十倍提升优化实践

背景线上某集群峰值TPS超过100万/秒左右(主要为写流量,读流量很低),峰值tps几乎已经到达集群上限,同时平均时延也超过100ms,随着读写流量的进一步增加,时延抖动严重影响业务可用性。该集群采用...

MongoDB 常见问题处理(二)(mongodb数据处理)

MongoDB数据库中,删除请求数超过阈值的处理方案?数据删除发生在文档迁移过程中,MongoDB4.0以上版本均衡阈值很小,容易发生迁移,频繁的迁移数据导致delete数据较大,同时还会导致CPU负...

实战:docker搭建FastDFS文件系统并集成SpringBoot

实战:docker搭建FastDFS文件系统并集成SpringBoot前言15年的时候,那时候云存储还远远没有现在使用的这么广泛,归根结底就是成本和安全问题,记得那时候我待的公司是做建站开发的,前期用...