我们使用jdk自带的jstack来分析。当linux出现cpu被java程序消耗过高时,以下过程说不定可以帮上你的忙:
1.top查找出哪个进程消耗的cpu高
21125 co_ad2 18 0 1817m 776m 9712 S 3.3 4.9 12:03.24 java
5284 co_ad 21 0 3028m 2.5g 9432 S 1.0 16.3 6629:44 java
21994 mysql 15 0 449m 88m 5072 S 1.0 0.6 67582:38 mysqld
8657 co_sparr 19 0 2678m 892m 9220 S 0.3 5.7 103:06.13 java
这里我们分析21125这个java进程。
2.top中shift+h查找出哪个线程消耗的cpu高
先输入top,然后再按shift+h
21233 co_ad2 15 0 1807m 630m 9492 S 1.3 4.0 0:05.12 java
20503 co_ad2_s 15 0 1360m 560m 9176 S 0.3 3.6 0:46.72 java
21134 co_ad2 15 0 1807m 630m 9492 S 0.3 4.0 0:00.72 java
22673 co_ad2 15 0 1807m 630m 9492 S 0.3 4.0 0:03.12 java
这里我们分析21233这个线程,并且注意的是,这个线程是属于21125这个进程的。
3.jstack查找这个线程的信息
jstack [进程]|grep -A 10 [线程的16进制]
即:
- jstack 21125|grep -A 10 52f1
-A 10表示查找到所在行的后10行。21233用计算器转换为16进制52f1,注意字母是小写。
结果:
- "http-8081-11" daemon prio=10 tid=0x00002aab049a1800 nid=0x52bb in Object.wait() [0x0000000042c75000]
- java.lang.Thread.State: WAITING (on object monitor)
- at java.lang.Object.wait(Native Method)
- at java.lang.Object.wait(Object.java:485)
- at org.apache.tomcat.util.net.JIoEndpoint$Worker.await(JIoEndpoint.java:416)
说不定可以一下子定位到出问题的代码。
相关推荐
- 如果发现有死循环或者无限递归的情况,需要尽快修改代码逻辑; - 对于频繁调用的方法,可以考虑使用缓存机制减少重复计算; - 如果是由于锁竞争导致的问题,则需要调整锁策略或者使用更高效的并发控制机制。 #...
在这种情况下,首要任务是定位问题的根源,即找出导致CPU高负载的进程和线程。 1. **进程和线程排查**:在Linux环境中,可以使用`top`命令查看当前CPU资源的消耗情况,通过排序找到CPU占用最高的Java进程。在这个...
2. **Java代码死循环等导致的CPU过高分析**: - 查找长时间处于`RUNNABLE`状态的线程。 - 检查是否有无限循环或其他占用CPU的代码。 3. **高消耗CPU代码的常用分析方法**: - 使用`jstack`等工具定期采样线程...
- CPU过高:检查是否存在死循环,使用`jstack`查看线程堆栈。 - Load过高:检查是否存在Full GC频繁或死循环。 - 类冲突:查看类加载情况,可能需要调整JVM参数。 - 日志分析:使用`less`, `more`, `tail -f`等...
当这个值持续偏高时,说明有进程正在大量消耗CPU资源,可能是由于算法效率低、死循环、资源竞争或线程阻塞等问题造成的。 该压缩包中的脚本可能包括以下功能: 1. **监控Java进程**:这些脚本能够自动检测运行中的...