数据
聚焦技术和人文,分享干货,共同成长。
mongostat 命令
mongostat 是 MongoDB 自带的轻量级监控工具,功能类似 Linux 的 vmstat,能按固定时间间隔(默认 1 秒)采集实例运行指标并输出,是运维人员排查性能瓶颈、监控实例健康状态的核心工具。本文将从连接方式、结果解读、高级参数到实战排查,全面讲解 mongostat 的使用方法。
一、基础用法:连接不同场景的 MongoDB 实例
mongostat 支持连接本地单机实例、复制集等场景,核心是通过命令行参数指定连接信息、输出次数和间隔。以下是两种典型场景的实战命令。
1.1 连接本地单机实例
适用于开发环境或单机部署的生产环境,需指定主机、端口、认证信息(若开启)。
# 命令格式:mongostat --host=主机 --port=端口 --username=用户名 --humanReadable=true --authenticationDatabase=认证库 -n 输出次数 采集间隔
mongostat --host=127.0.0.1 --port=27017 --username=admin --humanReadable=true --authenticationDatabase=admin -n 20 1
关键参数解释:
--humanReadable=true:将内存、流量等指标转换为易读单位(如 G、k),避免原始数字难以理解。
-n 20:指定输出 20 次后停止(若不指定,会持续输出直到手动按 Ctrl+C 终止)。
1:采集间隔为 1 秒(单位:秒),可根据需求调整(如 5 秒采集一次则写 5)。
--authenticationDatabase=admin:指定认证数据库(通常为 admin,与创建用户时的数据库一致)。
1.2 连接 MongoDB 复制集
生产环境多采用复制集部署,需指定所有节点地址(避免单点依赖),格式与单机类似。
# 连接复制集:指定多个节点地址,用逗号分隔
mongostat --host=20.20.20.64:27017,20.20.20.65:27017,20.20.20.66:27017 --username=admin --humanReadable=true --authenticationDatabase=admin -n 20 1
执行后会自动识别复制集角色(主节点 PRIMARY、从节点 SECONDARY),并在输出结果中体现(repl 字段)。
二、核心解读:mongostat 输出结果含义
执行命令后,会输出多列指标,每一行代表一个采集周期的数据。以下结合实际输出示例,按 “功能分类” 解读关键字段,重点标注需警惕的阈值。
2.1 输出示例(节选)
insert query update delete getmore command dirty used flushes vsize res qrw arw net_in net_out conn set repl time
*0 4 *0 *0 0 35|0 0.1% 79.6% 0 11.3G 8.86G 0|0 0|0 10.2k 373k 103 myabc_mongo_rs SLV Apr 10 10:27:26.560
*0 0 *0 *0 3 10|0 0.1% 79.6% 0 11.3G 8.86G 0|0 0|0 6.37k 66.3k 103 myabc_mongo_rs SLV Apr 10 10:27:28.559
2.2 字段分类解读
按功能可将字段分为 4 类,其中 标红部分为需重点监控的指标。
(1)读写操作类:反映业务访问压力
字段含义
insert
每秒插入的文档数,带 * 表示该操作是复制集同步的操作(从节点特有)。
query
每秒执行的查询操作数(含普通查询、聚合查询等)。
update
每秒执行的更新操作数。
delete
每秒执行的删除操作数。
getmore
每秒通过游标获取批量数据的操作数(如分页查询的后续请求)。
command
每秒执行的命令数(如 createIndex、dropCollection);从节点会显示 “本地
复制”(如 `35
0`),前者是本地命令,后者是复制命令。
(2)缓存与存储类:反映实例资源占用(重点关注)
这类指标直接关联性能瓶颈,尤其是 WiredTiger 引擎(MongoDB 3.2+ 默认引擎)下的 dirty 和 used。
字段含义与阈值警示
dirty
WiredTiger 引擎的脏数据比例(内存中未刷到磁盘的数据)。
⚠️ 阈值:5%(触发主动刷盘)、20%(阻塞新请求,全力刷盘)。
used
WiredTiger 引擎已占用的内存比例(MongoDB 默认最大占用系统内存的 60%)。
⚠️ 阈值:80%(触发 LRU 淘汰旧数据)、95%(阻塞操作,全力淘汰数据)。
flushes
刷盘次数:WiredTiger 下是检查点(checkpoint)次数,MMAPv1 下是 fsync 次数。
⚠️ 频繁刷盘(如每秒 1 次以上)可能导致 IO 压力过大。
vsize
MongoDB 占用的虚拟内存大小(单位:G),通常大于物理内存,无需过度关注。
res
MongoDB 占用的物理内存大小(单位:G),需结合系统内存判断是否溢出。
(3)连接与网络类:反映请求拥堵情况
字段含义与阈值警示
qrw
客户端等待处理的读写队列长度(格式:读队列
写队列,如 `0
0`)。
⚠️ 队列长度持续大于 5,说明实例处理速度跟不上请求量,可能有慢查询或资源瓶颈。
arw
客户端正在处理的活跃读写操作数(格式:读
写)。
⚠️ 数值持续过大(如超过 50),需检查是否有耗时操作阻塞线程。
net_in
实例每秒接收的网络流量(含 mongostat 自身流量),单位通常为 k(千字节)。
net_out
实例每秒发送的网络流量,单位通常为 k 或 M(如大查询会导致该值骤增)。
conn
当前打开的连接总数(含应用连接、mongostat 连接等),需小于 MongoDB 最大连接数(默认 65536)。
(4)复制集信息类:反映集群角色与时间
字段含义
set
复制集名称(如示例中的 myabc_mongo_rs),确认连接的集群是否正确。
repl
节点角色:PRI(主节点)、SLV(从节点)、ARB(仲裁节点)。
time
采集该条数据的时间戳,用于定位问题发生时间。
三、高级用法:自定义输出字段
默认输出的字段较多,若只需关注特定指标(如仅监控查询量和内存占用),可通过 -o 和 -O 参数自定义输出,减少信息干扰。
3.1 -o:仅输出指定字段
-o 会屏蔽默认字段,只显示你指定的列,适合聚焦单一维度监控。格式为 字段1,字段2=别名(可选),支持对指标做 rate()(每秒比率)或 diff()(两次采集差值)计算。
# 示例:仅输出主机、插入率、查询率、命令率、缓存请求数
mongostat --host=127.0.0.1 --port=27017 --username=admin --humanReadable=true --authenticationDatabase=admin -n 5 1 -o='host,opcounters.insert.rate()=Insert Rate,opcounters.query.rate()=Query Rate,opcounters.command.rate()=Command Rate,wiredTiger.cache.pages requested from the cache=Pages Req'
输出结果(简洁聚焦):
host Insert Rate Query Rate Command Rate Pages Req
127.0.0.1:27017 0 0 3 10809493343
127.0.0.1:27017 0 3 36 10809494060
3.2 -O:在默认字段基础上增加自定义字段
-O 不会屏蔽默认输出,而是在默认列后追加指定字段,适合需要保留基础指标、同时补充额外信息的场景(如查看 MongoDB 版本)。
# 示例:默认字段 + 主机 + 版本 + 网络请求数
mongostat --host=127.0.0.1 --port=27017 --username=admin --humanReadable=true --authenticationDatabase=admin -n 3 1 -O='host,version,network.numRequests=network requests'
输出结果(默认列 + 新增列):
insert query update delete getmore command dirty used flushes vsize res qrw arw net_in net_out conn set repl time host version network requests
*0 0 *0 *0 0 2|0 0.0% 79.5% 0 11.3G 8.90G 0|0 0|0 560b 59.5k 103 myabc_mongo_rs SLV Apr 10 11:13:25.792 127.0.0.1:27017 5.0.13 140029101
四、实战排查:常见问题与解决方案
通过 mongostat 发现异常后,需结合指标定位问题根源。以下是 3 类高频问题的排查思路。
4.1 问题 1:qrw 队列持续大于 5(请求拥堵)
现象:qrw 字段如 3|5(读队列 3,写队列 5),且持续 10 秒以上。
排查步骤:
查看 query/update 字段,确认是否有突发的请求量增长(如业务峰值)。
若请求量正常,需排查慢查询(通过 mongosh 执行 db.currentOp() 查看当前耗时操作)。
解决方案:
若为业务峰值,可临时扩容实例或优化请求频率(如缓存热点数据)。
若为慢查询,需添加索引(如 db.collection.createIndex({field:1}))或优化查询语句(避免全表扫描)。
4.2 问题 2:dirty 比例超过 10%(脏数据堆积)
现象:dirty 字段如 15%,且持续上升(接近 20% 阈值)。
原因:写入速度超过刷盘速度,导致内存中未刷盘的数据堆积。
解决方案:
检查 flushes 字段,确认是否刷盘频率过低(如 5 分钟以上未刷盘)。
临时调整 WiredTiger 刷盘参数(需谨慎,建议先咨询官方):db.adminCommand({setParameter: 1, wiredTigerEngineRuntimeConfig: "checkpoint=(wait=60)"})(设置每 60 秒强制刷盘一次)。
长期解决方案:升级磁盘 IO 性能(如从 HDD 换 SSD)或拆分写入压力(如分库分表)。
4.3 问题 3:used 比例超过 85%(内存占用过高)
现象:used 字段如 88%,且持续上升(接近 95% 阈值)。
原因:缓存的热数据过多,或存在内存泄漏(罕见)。
解决方案:
查看 res 字段,确认物理内存是否真的不足(如 res=11G,系统内存仅 16G)。
执行 db.runCommand({clearCache: 1}) 手动清理缓存(仅临时缓解,需谨慎在业务低峰执行)。
长期解决方案:增加实例内存(如从 16G 升级到 32G)或优化数据访问模式(减少大文档的频繁读取)。
posted on
2025-11-06 06:52
阿陶学长
阅读(26)
评论(0)
收藏
举报
刷新页面返回顶部