`

一次Java内存泄漏排查实战

阅读更多

前些日子小组内安排值班,轮流看顾我们的服务,主要做一些报警邮件处理、Bug 排查、运营 issue 处理的事。工作日还好,无论干什么都要上班的,若是轮到周末,那这一天算是毁了。

 

 

640?wx_fmt=png

不知道是公司网络广了就这样还是网络运维组不给力,网络总有问题,不是这边交换机脱网了,就是那边路由器坏了,还偶发地各种超时,而我们灵敏的服务探测服务总能准确地抓住偶现的小问题,给美好的工作加点料。

 

好几次值班组的小伙伴们一起吐槽,商量着怎么避过服务保活机制,偷偷停了探测服务而不让人发现(虽然也并不敢)。前些天我就在周末处理了一次探测服务的锅。

 

问题出现

 

问题出现

 

晚上七点多开始,我就开始不停地收到报警邮件,邮件显示探测的几个接口有超时情况。 

 

多数执行栈都在:

  1. java.io.BufferedReader.readLine(BufferedReader.java:371)java.io.BufferedReader.readLine(BufferReader.java:389)java_io_BufferedReader$readLine.call(Unknown Source)com.domain.detect.http.HttpClient.getResponse(HttpClient.groovy:122)com.domain.detect.http.HttpClient.this$2$getResponse(HttpClient.groovy)
  2. java_io_BufferedReader$readLine.call(Unknown Source)
  3. com.domain.detect.http.HttpClient.getResponse(HttpClient.groovy:122)
  4. com.domain.detect.http.HttpClient.this$2$getResponse(HttpClient.groovy)

 

这个线程栈的报错我见得多了,我们设置的 HTTP DNS 超时是 1s,connect 超时是 2s,read 超时是 3s。

 

这种报错都是探测服务正常发送了 HTTP 请求,服务器也在收到请求正常处理后正常响应了,但数据包在网络层层转发中丢失了,所以请求线程的执行栈会停留在获取接口响应的地方。

 

这种情况的典型特征就是能在服务器上查找到对应的日志记录。而且日志会显示服务器响应完全正常。

 

与它相对的还有线程栈停留在 Socket connect 处的,这是在建连时就失败了,服务端完全无感知。

 

我注意到其中一个接口报错更频繁一些,这个接口需要上传一个 4M 的文件到服务器,然后经过一连串的业务逻辑处理,再返回 2M 的文本数据。

 

而其他的接口则是简单的业务逻辑,我猜测可能是需要上传下载的数据太多,所以超时导致丢包的概率也更大吧。

 

根据这个猜想,群登上服务器,使用请求的 request_id 在近期服务日志中搜索一下,果不其然,就是网络丢包问题导致的接口超时了。

 

当然这样 leader 是不会满意的,这个结论还得有人接锅才行。于是赶紧联系运维和网络组,向他们确认一下当时的网络状态。

 

网络组同学回复说是我们探测服务所在机房的交换机老旧,存在未知的转发瓶颈,正在优化,这让我更放心了,于是在部门群里简单交待一下,算是完成任务。

 

问题爆发

 

本以为这次值班就起这么一个小波浪,结果在晚上八点多,各种接口的报警邮件蜂拥而至,打得准备收拾东西过周日单休的我措手不及。

 

这次几乎所有的接口都在超时,而我们那个大量网络 I/O 的接口则是每次探测必超时,难道是整个机房故障了么?

 

我再次通过服务器和监控看到各个接口的指标都很正常,自己测试了下接口也完全 OK,既然不影响线上服务,我准备先通过探测服务的接口把探测任务停掉再慢慢排查。

 

结果给暂停探测任务的接口发请求好久也没有响应,这时候我才知道没这么简单。

 

解决问题

 

内存泄漏

 

于是赶快登陆探测服务器,首先是 top free df 三连,结果还真发现了些异常:

640?wx_fmt=png

我们的探测进程 CPU 占用率特别高,达到了 900%。

 

我们的 Java 进程,并不做大量 CPU 运算,正常情况下,CPU 应该在 100~200% 之间,出现这种 CPU 飙升的情况,要么走到了死循环,要么就是在做大量的 GC。

 

使用 jstat -gc pid [interval] 命令查看了 Java 进程的 GC 状态,果然,FULL GC 达到了每秒一次:

640?wx_fmt=png

这么多的 FULL GC,应该是内存泄漏没跑了,于是使用 jstack pid > jstack.log 保存了线程栈的现场。

 

使用 jmap -dump:format=b,file=heap.log pid 保存了堆现场,然后重启了探测服务,报警邮件终于停止了。

 

jstat

 

jstat 是一个非常强大的 JVM 监控工具,一般用法是:

 
jstat [-options] pid interval[-options] pid interval

 

它支持的查看项有:

 

使用它,对定位 JVM 的内存问题很有帮助。

 

排查问题

 

问题虽然解决了,但为了防止它再次发生,还是要把根源揪出来。

 

分析栈

 

栈的分析很简单,看一下线程数是不是过多,多数栈都在干嘛:

 
  1. grep 'java.lang.Thread.State' jstack.log  | wc -l> 464 grep 'java.lang.Thread.State' jstack.log  | wc -l
  2. > 464

 

才四百多线程,并无异常:

 
  1. grep -A 1 'java.lang.Thread.State' jstack.log  | grep -v 'java.lang.Thread.State' | sort | uniq -c |sort -n     10     at java.lang.Class.forName0(Native Method)     10     at java.lang.Object.wait(Native Method)     16     at java.lang.ClassLoader.loadClass(ClassLoader.java:404)     44     at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method)    344     at sun.misc.Unsafe.park(Native Method)1 'java.lang.Thread.State' jstack.log  | grep -v 'java.lang.Thread.State' | sort | uniq -c |sort -n
  2.  
  3.      10     at java.lang.Class.forName0(Native Method)
  4.      10     at java.lang.Object.wait(Native Method)
  5.      16     at java.lang.ClassLoader.loadClass(ClassLoader.java:404)
  6.      44     at sun.nio.ch.EPollArrayWrapper.epollWait(Native Method)
  7.     344     at sun.misc.Unsafe.park(Native Method)

 

线程状态好像也无异常,接下来分析堆文件。

 

下载堆 dump 文件

 

堆文件都是一些二进制数据,在命令行查看非常麻烦,Java 为我们提供的工具都是可视化的,Linux 服务器上又没法查看,那么首先要把文件下载到本地。

 

由于我们设置的堆内存为 4G,所以 dump 出来的堆文件也很大,下载它确实非常费事,不过我们可以先对它进行一次压缩。

 

gzip 是个功能很强大的压缩命令,特别是我们可以设置 -1~-9 来指定它的压缩级别。

 

数据越大压缩比率越大,耗时也就越长,推荐使用 -6~7,-9 实在是太慢了,且收益不大,有这个压缩的时间,多出来的文件也下载好了。

 

使用 MAT 分析 jvm heap

 

MAT 是分析 Java 堆内存的利器,使用它打开我们的堆文件(将文件后缀改为 .hprof), 它会提示我们要分析的种类。

 

对于这次分析,果断选择 memory leak suspect:

640?wx_fmt=png

从上面的饼图中可以看出,绝大多数堆内存都被同一个内存占用了,再查看堆内存详情,向上层追溯,很快就发现了罪魁祸首。

640?wx_fmt=png

分析代码

 

找到内存泄漏的对象了,在项目里全局搜索对象名,它是一个 Bean 对象,然后定位到它的一个类型为 Map 的属性。

 

这个 Map 根据类型用 ArrayList 存储了每次探测接口响应的结果,每次探测完都塞到 ArrayList 里去分析。

 

由于 Bean 对象不会被回收,这个属性又没有清除逻辑,所以在服务十来天没有上线重启的情况下,这个 Map 越来越大,直至将内存占满。

 

内存满了之后,无法再给 HTTP 响应结果分配内存了,所以一直卡在 readLine 那里。而我们那个大量 I/O 的接口报警次数特别多,估计跟响应太大需要更多内存有关。

 

给代码 owner 提了 PR,问题圆满解决。

 

小结

 

其实还是要反省一下自己的,一开始报警邮件里还有这样的线程栈:

 
  1. groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:166)groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186).json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:166)
  2. groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
  3. groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)
  4. groovy.json.internal.JsonParserCharArray.decodeJsonObject(JsonParserCharArray.java:132)
  5. groovy.json.internal.JsonParserCharArray.decodeValueInternal(JsonParserCharArray.java:186)

 

看到这种报错线程栈却没有细想,要知道 TCP 是能保证消息完整性的,况且消息没有接收完也不会把值赋给变量。

 

这种很明显的是内部错误,如果留意后细查是能提前查出问题所在的,查问题真是差了哪一环都不行啊。

 

作者:枕边书

编辑:陶家龙、孙淑娟

出处:https://zhenbianshu.github.io

 

分享到:
评论

相关推荐

    Java线上故障排查方案(2).pdf

    MAT(Memory Analyzer Tool)是一个强大的内存分析工具,可以用来分析Java堆转储文件,从而识别内存泄漏和内存消耗情况。 最后,案例分析环节通过具体的延迟场景、Camel配置跟踪、消息派发器分析等实例,进一步说明...

    47-Java性能调优实战.zip

    在排查内存问题时,我们需要关注几个关键点:检查是否存在内存泄漏,分析堆内存快照以定位占用内存的对象,监控JVM的GC行为,以及了解应用的内存分配模式。通过工具如JVisualVM、MAT(Memory Analyzer Tool)或...

    Java内存管理与优化技术详解及应用

    内容概要:本文全面解析了Java应用程序中的内存管理与优化方法。首先介绍了内存泄漏、内存抖动的基础概念,然后讲解了垃圾回收(GC)的基本原理及其工作流程。文章列举了多种常见的内存泄漏场景及其产生的原因,如非...

    实战Java虚拟机——JVM故障诊断与性能优化

    《实战Java虚拟机——JVM故障诊断与性能优化》是一本深入探讨Java开发人员和运维人员必备技能的书籍。本书作者葛一鸣以其丰富的实战经验,详细阐述了JVM(Java Virtual Machine)的工作原理,以及如何有效地进行故障...

    实战JAVA虚拟机 JVM故障诊断与性能优化.rar

    《实战JAVA虚拟机 JVM故障诊断与性能优化》是一本深度探讨Java虚拟机(JVM)的专著,旨在帮助开发者解决实际工作中遇到的JVM相关问题,提升系统的性能表现。通过对JVM内部机制的深入理解,我们可以更有效地调试、...

    实战JAVA虚拟机 JVM故障诊断与性能优化

    《实战JAVA虚拟机 JVM故障诊断与性能优化》这本书主要涵盖了Java开发者在实际工作中可能遇到的JVM相关问题,包括但不限于故障排查、性能调优、内存管理、垃圾收集机制等内容。以下将详细介绍这些知识点: 1. **Java...

    实战Java虚拟机——JVM故障诊断与性能优化.pdf

    《实战Java虚拟机——JVM故障诊断与性能优化》是一本深入探讨Java开发中的关键环节——Java虚拟机(JVM)的专著。本书聚焦于实际应用中的问题解决和性能调优,对于Java开发者和系统管理员来说,是提升技术水平的重要...

    Java底层知识点、源码解读,技术栈相关原理知识点、工具解读最佳实践、功能点实战,问题排查,开发技巧等.zip

    Java作为一门广泛使用的编程语言,其底层知识点、源码解读、技术栈原理、工具最佳实践、功能实战以及问题排查和开发技巧是每个专业Java开发者必须掌握的核心内容。本压缩包"Java底层知识点、源码解读,技术栈相关...

    阿里巴巴java开发手册中文版

    3. 内存管理:理解对象生命周期,避免内存泄漏,合理使用软引用、弱引用。 通过遵循《阿里巴巴Java开发手册》中的规范,开发者可以提高代码质量,降低维护成本,使代码更易于理解和复用,同时也有助于团队之间的...

    Java底层知识点、源码解读,技术栈相关原理知识点、工具解读最佳实践、功能点实战,问题排查,开发技巧等

    3. **内存模型**: 深入理解堆内存、栈内存、方法区(在Java 8后变为元空间Metaspace)以及本地方法栈的结构和交互,有助于避免内存泄漏和栈溢出等问题。 4. **垃圾回收(GC)**: 了解不同类型的垃圾收集器(如...

    JVM实战-对象访问与内存溢出异常解析

    通过本实验,旨在深入理解JVM内存管理机制以及各种内存区域的特点,并通过具体的编程实践来触发并分析这些异常,进而提升对Java应用程序性能调优和故障排查的能力。 #### 实验目标 1. **理解内存区域与内存区域...

    基于java语言实现的游戏服务器框架.zip

    其垃圾回收机制和自动内存管理为开发者提供了便利,减少了内存泄漏等问题的发生。 在游戏服务器框架设计中,通常会包含以下几个关键模块: 1. **网络通信**:游戏服务器需要与客户端进行频繁的数据交换,因此高效...

    MemoryAnalyzer JVM堆内存分析工具

    总结来说,MemoryAnalyzer是一款强大的JVM堆内存分析工具,它的功能全面,易于使用,能有效地帮助开发者排查和解决内存相关的问题,提升Java应用的性能和稳定性。熟练掌握MAT的使用,是每个Java开发者必备的技能之一...

    java深度历险

    《Java深度历险》是一本面向已有一定Java基础的学习者,旨在深化理解并提升Java编程技能的专业书籍。作者王森,以其丰富的编程经验和深入的理解,为读者揭示了Java语言的精髓与复杂性,帮助程序员从初级阶段跨越到...

    JVM虚拟机入门到实战资料

    例如,了解类加载过程(加载、验证、准备、解析、初始化)、内存泄漏的原因和检测、垃圾回收的工作原理、线程模型及死锁问题等,这些都是衡量一个Java开发者专业水平的重要指标。 综上所述,本套JVM学习资料覆盖了...

    实战JAVA虚拟机 JVM故障诊断与性能优化带源码

    《实战JAVA虚拟机 JVM故障诊断与性能优化》是一本深度探讨Java虚拟机(JVM)的书籍,旨在帮助开发者解决在实际工作中遇到的JVM相关问题,提升系统的性能。这本书提供了丰富的源码实例,让读者能够深入理解JVM的工作...

    java面试关键代码

    9. **JVM内存模型**:理解JVM的内存结构(如堆、栈、方法区、本地方法栈等),以及类加载机制,对于解决内存泄漏、性能优化等问题至关重要。 10. **综合软件项目开发**:实际的面试中,面试者可能会被问及在实际...

    java诊断与调优常用命令jmap、jstack、jstat使用实战.pdf

    Java诊断与调优是开发和运维人员日常工作中不可或缺的一部分,尤其是在生产环境中,遇到问题时能够快速定位并优化显得尤为重要。本文主要介绍了四个Java命令行工具:jps、jmap、jstack和jstat,它们是Java性能分析和...

    java实战项目code部分(15个项目)

    15. **性能优化**:分析和调优Java应用,如使用JProfiler或VisualVM工具,理解内存泄漏、CPU占用等问题。 文件"ca701b91fad44a1b81ff2aa885ad4884"可能是项目源代码的一个特定部分或一个压缩文件的哈希值,具体的...

Global site tag (gtag.js) - Google Analytics