2016-05-06中午11:56,收到“[sentry2]2016-05-06 11:56:09 xxxxxxhost xxx.xxx.xxx.xxx 内存使用已达到90.18%”报警。首先在脑海浮现的,应该哪里出现内存泄漏了。
一、确认问题
马上到 Sentry 监控系统查看了该服务的“服务器监控”指标,发现其中2台机器的内存使用量都超过了90%,另外2台尽然没有监控数据(以前是有的)。
对于另外2台服务器没有监控数据,只好先登上去查看确认一下喽。通过“free -m”确认,线上服务器总内存共 7872MB,使用了 7098MB,还有 773MB(= 406 + 151 + 216) 空闲着,使用率为 90.16%(= 7098 / 7872)。(参考:free(1) - Linux manual page、Linux Used内存到底哪里去了? | 褚霸-余锋)
从问题表现来看,该业务的4台机器都出现“内存使用量都超过了90%”。
二、排查问题
1. 对比一下该业务“服务器内存占用百分比”的历史状况
1.1 3月26日业务刚上线时,服务器内存占用百分比是 45%。
1.2 4月14日之前,服务器内存占用百分比稳定在 48%。
1.3 4月15日,服务器内存占用百分比突然从 48% 升到 61%。
1.4 4月17日,服务器内存占用百分比稳定在 67%。
1.5 4月18日到5月2日期间,服务器内存占用百分比稳定在 68%。
1.6 5月3日直到5月6日的报警期间,服务器内存占用百分比又从 68% 升到 90%。
从“服务器内存占用百分比”历史数据的异常时间点(4月17日、5月3日)来看,我们自己都没有发布上线过代码,说明不是我们引起的。
2. 查看 Sentry 监控系统的“进程监控”指标,运维同学发现 logagent 进程内存占用了 580MB。他们刚优化了 logagent 组件,1分钟在线平滑升级后(线上业务服务不需要重启),内存从 580MB 降到 54MB,还是很可观的。这样服务器的空闲内存又多出了500+MB,为排查线上问题流出了更多的时间。(当时做得不够好的地方,应该只保留一台作为现场排查问题,重启其他机器,避免线上可能因为所有机器 OOM 而导致整个服务不可用)(当时我们都没看到 sentry_agent 进程占用了近 1.3GB )
3. 内存泄漏的可能性最大,先验证之
向有经验的同学请教,说内存使用量飙高,一般都是中间件引起的内存泄漏。因为我们线上服务使用 Java 语言开发,所以先从 JVM 垃圾收集器 GC 入手,可以比较直观地看出 JVM 内存状况。(jstat -gcutil `pgrep -u mapp java` 1s)
上图输出的每个字段的含义见 jstat -gcutil 命令参考文档。从上图看,Eden 区(Eden Space (heap))内存占用每秒增长 1.5%,Survivor 区(Survivor Space (heap),S0、S1)内存占用在一次垃圾收集后增长 1.2%,Old 区(Tenured Generation (heap))内存占用在一次垃圾收集后增长 0.57%,Perm 区(Permanent Generation (non-heap))内存一直占用 59.97%。Young GC 平均耗时为 96.7ms ( = 358.407 / 3705),Full GC 平均耗时为 74.4ms(= 7.587 / 102)。
从“gc 监控”看,也没收到 Full GC 报警。同时查看 gc.log,ParNew GC 大约每隔几分钟触发一次,CMS GC 大约每隔5个小时触发一次,没有 Full GC。从 JVM 内存监控数据来看,说明 GC 都正常的。
3. 哪些进程用了那么多内存
从上面@褚霸在《Linux Used内存到底哪里去了?》总结的:内存的去向主要有3个:1. 进程消耗,2. slab消耗,3. pagetable消耗。
先看一下线上服务器的 JVM 配置(jps -lv):
2628 org.apache.catalina.startup.Bootstrap -Djava.util.logging.config.file=/home/mapp/spyder/.default/conf/logging.properties -Djava.util.logging.manager=org.apache.juli.ClassLoaderLogManager -Xms4g -Xmx4g -XX:PermSize=96m -XX:MaxPermSize=256m -Xmn2g -XX:SurvivorRatio=10 -XX:+UseConcMarkSweepGC -XX:+UseCMSCompactAtFullCollection -XX:CMSMaxAbortablePrecleanTime=5000 -XX:+CMSClassUnloadingEnabled -XX:CMSInitiatingOccupancyFraction=80 -XX:+DisableExplicitGC -verbose:gc -Xloggc:/home/mapp/logs/gc.log -XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+UseCompressedOops -Djava.awt.headless=true -XX:+HeapDumpOnOutOfMemoryError -XX:HeapDumpPath=/home/mapp/logs/java.hprof -XX:MaxDirectMemorySize=1g -XX:+UseCMSInitiatingOccupancyOnly -XX:+ExplicitGCInvokesConcurrent -Dsun.rmi.dgc.server.gcInterval=2592000000 -Dsun.rmi.dgc.client.gcInterval=2592000000 -Dsun.net.client.defaultConnectTimeout=10000 -Dsun.net.client.defaultReadTimeout=30000 -Dproject.name=xxxxxx -Djava.endorsed.dirs=/usr/local/tomcat/endorsed -Dcatalina.base=/home/mapp/spyder/.default -Dcatalina.home=/
从 JVM 配置来看,最大内存为 4GB。
接着就是通过“top -M”(按RES字段排序:按 f,然后再按 q)观察哪些进程占用的内存不正常。
top 命令的 VIRT 字段表示虚拟内存,而 RES 字段才表示实际的使用内存。从上图(数据是事后伪造的,因为没保存当时现场,但量级和当时事故现场差不多)可以很清晰地看到,java 进程占用了 4.1g 内存,和 JVM 配置一样;两个 sentry-agent 进程尽然分别占用了 1.6GB 和 1.2GB(好吓人)。
sentry-agent 是一个收集日志的客户端,为什么会占用这么多的内存呢?向负责该服务的开发同学反馈,证实确实有问题,他们好像也发现问题了,他们答应当天下午修复问题。凭直觉,问题应该就出现在这里了。先让运维同学重启了 sentry-agent 进程,内存占用百分比一下子就降到了 59%,说明此问题的大部分原因是这里引起的。此数据与4月15日吻合,但与最开始的48%数据还有差距,这个还需要进一步排查。因为从 GC 来看,自身应用程序没发现内存泄漏问题,需要深入探究一下。
上述4台机器,前面2台使用 Docker 虚拟化,后面2台使用 KVM 虚拟化。内存占用百分比相差10+个点(相差 900+MB),注意是由于 slabs 消耗不一样引起的(参考@褚霸的文章)。
KVM 虚拟化:
$ echo `cat /proc/slabinfo |awk 'BEGIN{sum=0;}{sum=sum+$3*$4;}END{print sum/1024/1024}'` MB
139.037 MB
Docker 虚拟化:
$ echo `cat /proc/slabinfo |awk 'BEGIN{sum=0;}{sum=sum+$3*$4;}END{print sum/1024/1024}'` MB
1177.34 MB
问题解决前后,“内存占用百分比”对比图:
看了其他监控指标,发现“服务器线程总数”从680下降到400,说明 sentry-agent 存在线程泄漏问题。
至此,本问题算是解决了大部分,线上服务器内存暴涨问题得到了解决。(在群里反馈,其他服务先前就已经出现了此问题,但一直没有去排查,我也是醉啦,就不担心出现 OOM 吗?就不担心整个服务都不可用吗?这个问题解决得到 Leader 的赞还是很开心滴)
写博客确实花很多时间和精力,但回顾问题整个处理过程并反思处理思路,还是有很多地方可以改进(不懂时就上网查资料,了解清楚),收获颇多。(感谢每一个问题!)
祝大家玩得开心!
相关推荐
日志管理和报警系统也是必不可少的,能快速定位和解决线上问题。 以上就是“攒红包抢红包源代码”所涵盖的主要IT知识点,每个点都可以深入研究,构建一个完整的红包系统需要综合运用这些技术,确保系统的稳定、安全...
当燃气使用量达到预设值或出现异常情况时,智能燃气表会自动触发短信通知功能,将相关信息发送到指定的手机或者服务器,实现了远程监控和预警。 二、功能特点 1. 实时计量:智能燃气表能实时记录并存储用户的用...
智慧公寓管理系统方案的使用方式非常简单,在通过我们的工作人员部署了相关的服务器和智能家居硬件设施后,我们就可以通过手机APP来控制和管理这些设备,用户可以通过电脑端和手机端来访问服务器,公寓管理网关会把...
进程监控主要关注系统中各个进程的状态,如CPU使用率、内存占用情况等。 - **错误日志监控** 错误日志记录了系统运行过程中发生的异常情况,通过监控这些日志可以及时发现问题。 - **监控的最佳实践** 实践中,...
3. 安全保障:智能柜具有防盗报警、防火、防水等安全措施,同时,通过加密技术保护用户信息不被泄露。 4. 快递管理:系统后台可统一管理各个社区的快递柜,包括维护、更新和故障排查,确保设备正常运行。 5. 数据...
3. **安全性保障**:确保用户数据的安全,防止个人信息泄露等问题的发生。 4. **性能优化**:提高系统的响应速度和稳定性,确保用户在各种网络环境下都能获得良好的使用体验。 具体的研究目标包括但不限于: - ...
- **传统办公模式的局限性:** 传统的办公模式存在分散、低效、监管不力等问题,这些已成为XXXXXXXX行政改革中的关键问题之一。 - **信息技术的作用:** 随着电子政务的发展,利用信息技术和其他领域的技术手段构建...