dw如何在网站做弹窗手机网站建设公司推荐
news/
2025/10/6 9:33:53/
文章来源:
dw如何在网站做弹窗,手机网站建设公司推荐,广告网站怎么建设,百度app下载并安装最新版处理过线上问题的同学基本上都会遇到系统突然运行缓慢#xff0c;CPU 100%#xff0c;以及Full GC次数过多的问题。当然#xff0c;这些问题的最终导致的直观现象就是系统运行缓慢#xff0c;并且有大量的报警。本文主要针对系统运行缓慢这一问题#xff0c;提供该问题的排…处理过线上问题的同学基本上都会遇到系统突然运行缓慢CPU 100%以及Full GC次数过多的问题。当然这些问题的最终导致的直观现象就是系统运行缓慢并且有大量的报警。本文主要针对系统运行缓慢这一问题提供该问题的排查思路从而定位出问题的代码点进而提供解决该问题的思路。对于线上系统突然产生的运行缓慢问题如果该问题导致线上系统不可用那么首先需要做的就是导出jstack和内存信息然后重启系统尽快保证系统的可用性。这种情况可能的原因主要有两种代码中某个位置读取数据量较大导致系统内存耗尽从而导致Full GC次数过多系统缓慢代码中有比较耗CPU的操作导致CPU过高系统运行缓慢相对来说这是出现频率最高的两种线上问题而且它们会直接导致系统不可用。另外有几种情况也会导致某个功能运行缓慢但是不至于导致系统不可用代码某个位置有阻塞性的操作导致该功能调用整体比较耗时但出现是比较随机的某个线程由于某种原因而进入WAITING状态此时该功能整体不可用但是无法复现由于锁使用不当导致多个线程进入死锁状态从而导致系统整体比较缓慢。对于这三种情况通过查看CPU和系统内存情况是无法查看出具体问题的因为它们相对来说都是具有一定阻塞性操作CPU和系统内存使用情况都不高但是功能却很慢。下面我们就通过查看系统日志来一步一步甄别上述几种问题。1. Full GC次数过多相对来说这种情况是最容易出现的尤其是新功能上线时。对于Full GC较多的情况其主要有如下两个特征线上多个线程的CPU都超过了100%通过jstack命令可以看到这些线程主要是垃圾回收线程通过jstat命令监控GC情况可以看到Full GC次数非常多并且次数在不断增加。首先我们可以使用top命令查看系统CPU的占用情况如下是系统CPU较高的一个示例top - 08:31:10 up 30 min, 0 users, load average: 0.73, 0.58, 0.34
KiB Mem: 2046460 total, 1923864 used, 122596 free, 14388 buffers
KiB Swap: 1048572 total, 0 used, 1048572 free. 1192352 cached Mem PID USER PR NI VIRT RES SHR S %CPU %MEM TIME COMMAND9 root 20 0 2557160 288976 15812 S 98.0 14.1 0:42.60 java
可以看到有一个Java程序此时CPU占用量达到了98.8%此时我们可以复制该进程id9并且使用如下命令查看呢该进程的各个线程运行情况top -Hp 9
该进程下的各个线程运行情况如下top - 08:31:16 up 30 min, 0 users, load average: 0.75, 0.59, 0.35
Threads: 11 total, 1 running, 10 sleeping, 0 stopped, 0 zombie
%Cpu(s): 3.5 us, 0.6 sy, 0.0 ni, 95.9 id, 0.0 wa, 0.0 hi, 0.0 si, 0.0 st
KiB Mem: 2046460 total, 1924856 used, 121604 free, 14396 buffers
KiB Swap: 1048572 total, 0 used, 1048572 free. 1192532 cached MemPID USER PR NI VIRT RES SHR S %CPU %MEM TIME COMMAND10 root 20 0 2557160 289824 15872 R 79.3 14.2 0:41.49 java11 root 20 0 2557160 289824 15872 S 13.2 14.2 0:06.78 java
可以看到在进程为9的Java程序中各个线程的CPU占用情况接下来我们可以通过jstack命令查看线程id为10的线程为什么耗费CPU最高。需要注意的是在jsatck命令展示的结果中线程id都转换成了十六进制形式。可以用如下命令查看转换结果也可以找一个科学计算器进行转换roota39de7e7934b:/# printf %xn 10
a
这里打印结果说明该线程在jstack中的展现形式为0xa通过jstack命令我们可以看到如下信息main #1 prio5 os_prio0 tid0x00007f8718009800 nid0xb runnable [0x00007f871fe41000]java.lang.Thread.State: RUNNABLEat com.aibaobei.chapter2.eg2.UserDemo.main(UserDemo.java:9)VM Thread os_prio0 tid0x00007f871806e000 nid0xa runnable
这里的VM Thread一行的最后显示nid0xa这里nid的意思就是操作系统线程id的意思。而VM Thread指的就是垃圾回收的线程。这里我们基本上可以确定当前系统缓慢的原因主要是垃圾回收过于频繁导致GC停顿时间较长。我们通过如下命令可以查看GC的情况root8d36124607a0:/# jstat -gcutil 9 1000 10S0 S1 E O M CCS YGC YGCT FGC FGCT GCT0.00 0.00 0.00 75.07 59.09 59.60 3259 0.919 6517 7.715 8.6350.00 0.00 0.00 0.08 59.09 59.60 3306 0.930 6611 7.822 8.7520.00 0.00 0.00 0.08 59.09 59.60 3351 0.943 6701 7.924 8.8670.00 0.00 0.00 0.08 59.09 59.60 3397 0.955 6793 8.029 8.984
可以看到这里FGC指的是Full GC数量这里高达6793而且还在不断增长。从而进一步证实了是由于内存溢出导致的系统缓慢。那么这里确认了内存溢出但是如何查看你是哪些对象导致的内存溢出呢这个可以dump出内存日志然后通过eclipse的mat工具进行查看如下是其展示的一个对象树结构经过mat工具分析之后我们基本上就能确定内存中主要是哪个对象比较消耗内存然后找到该对象的创建位置进行处理即可。这里的主要是PrintStream最多但是我们也可以看到其内存消耗量只有12.2%。也就是说其还不足以导致大量的Full GC此时我们需要考虑另外一种情况就是代码或者第三方依赖的包中有显示的System.gc()调用。这种情况我们查看dump内存得到的文件即可判断因为其会打印GC原因[Full GC (System.gc()) [Tenured: 262546K262546K(349568K), 0.0014879 secs] 262546K-262546K(506816K), [Metaspace: 3109K-3109K(1056768K)], 0.0015151 secs]
[Times: user0.00 sys0.00, real0.01 secs
[GC (Allocation Failure) [DefNew: 2795K-0K(157248K), 0.0001504 secs][Tenured: 262546K-402K(349568K), 0.0012949 secs] 265342K-402K(506816K),
[Metaspace: 3109K-3109K(1056768K)], 0.0014699 secs] [Times: user0.00
2. CPU过高在前面第一点中我们讲到CPU过高可能是系统频繁的进行Full GC导致系统缓慢。而我们平常也肯能遇到比较耗时的计算导致CPU过高的情况此时查看方式其实与上面的非常类似。首先我们通过top命令查看当前CPU消耗过高的进程是哪个从而得到进程id然后通过top -Hp来查看该进程中有哪些线程CPU过高一般超过80%就是比较高的80%左右是合理情况。这样我们就能得到CPU消耗比较高的线程id。接着通过该线程id的十六进制表示在jstack日志中查看当前线程具体的堆栈信息。在这里我们就可以区分导致CPU过高的原因具体是Full GC次数过多还是代码中有比较耗时的计算了。如果是Full GC次数过多那么通过jstack得到的线程信息会是类似于VM Thread之类的线程而如果是代码中有比较耗时的计算那么我们得到的就是一个线程的具体堆栈信息。如下是一个代码中有比较耗时的计算导致CPU过高的线程信息这里可以看到在请求UserController的时候由于该Controller进行了一个比较耗时的调用导致该线程的CPU一直处于100%。我们可以根据堆栈信息直接定位到UserController的34行查看代码中具体是什么原因导致计算量如此之高。3. 不定期出现的接口耗时现象对于这种情况比较典型的例子就是我们某个接口访问经常需要2~3s才能返回。这是比较麻烦的一种情况因为一般来说其消耗的CPU不多而且占用的内存也不高也就是说我们通过上述两种方式进行排查是无法解决这种问题的。而且由于这样的接口耗时比较大的问题是不定时出现的这就导致了我们在通过jstack命令即使得到了线程访问的堆栈信息我们也没法判断具体哪个线程是正在执行比较耗时操作的线程。对于不定时出现的接口耗时比较严重的问题我们的定位思路基本如下首先找到该接口通过压测工具不断加大访问力度如果说该接口中有某个位置是比较耗时的由于我们的访问的频率非常高那么大多数的线程最终都将阻塞于该阻塞点这样通过多个线程具有相同的堆栈日志我们基本上就可以定位到该接口中比较耗时的代码的位置。如下是一个代码中有比较耗时的阻塞操作通过压测工具得到的线程堆栈日志http-nio-8080-exec-2 #29 daemon prio5 os_prio31 tid0x00007fd08cb26000
nid0x9603 waiting on condition [0x00007000031d5000]java.lang.Thread.State: TIMED_WAITING (sleeping)at java.lang.Thread.sleep(Native Method)at java.lang.Thread.sleep(Thread.java:340)at java.util.concurrent.TimeUnit.sleep(TimeUnit.java:386)at com.aibaobei.user.controller.UserController.detail(UserController.java:18)
http-nio-8080-exec-3 #30 daemon prio5 os_prio31tid0x00007fd08cb27000
nid0x6203 waiting on condition [0x00007000032d8000]java.lang.Thread.State: TIMED_WAITING (sleeping)at java.lang.Thread.sleep(Native Method)at java.lang.Thread.sleep(Thread.java:340)at java.util.concurrent.TimeUnit.sleep(TimeUnit.java:386)at com.aibaobei.user.controller.UserController.detail(UserController.java:18)
http-nio-8080-exec-4 #31 daemon prio5 os_prio31 tid0x00007fd08d0fa000
nid0x6403 waiting on condition [0x00007000033db000]java.lang.Thread.State: TIMED_WAITING (sleeping)at java.lang.Thread.sleep(Native Method)at java.lang.Thread.sleep(Thread.java:340)at java.util.concurrent.TimeUnit.sleep(TimeUnit.java:386)at com.aibaobei.user.controller.UserController.detail(UserController.java:18)
从上面的日志可以看你出这里有多个线程都阻塞在了UserController的第18行说明这是一个阻塞点也就是导致该接口比较缓慢的原因。4. 某个线程进入WAITING状态对于这种情况这是比较罕见的一种情况但是也是有可能出现的而且由于其具有一定的“不可复现性”因而我们在排查的时候是非常难以发现的。笔者曾经就遇到过类似的这种情况具体的场景是在使用CountDownLatch时由于需要每一个并行的任务都执行完成之后才会唤醒主线程往下执行。而当时我们是通过CountDownLatch控制多个线程连接并导出用户的gmail邮箱数据这其中有一个线程连接上了用户邮箱但是连接被服务器挂起了导致该线程一直在等待服务器的响应。最终导致我们的主线程和其余几个线程都处于WAITING状态。对于这样的问题查看过jstack日志的读者应该都知道正常情况下线上大多数线程都是处于TIMED_WAITING状态而我们这里出问题的线程所处的状态与其是一模一样的这就非常容易混淆我们的判断。解决这个问题的思路主要如下通过grep在jstack日志中找出所有的处于 TIMED_WAITING状态的线程将其导出到某个文件中如a1.log如下是一个导出的日志文件示例Attach Listener #13 daemon prio9 os_prio31 tid0x00007fe690064000 nid0xd07 waiting on condition [0x0000000000000000]
DestroyJavaVM #12 prio5 os_prio31 tid0x00007fe690066000 nid0x2603 waiting on condition [0x0000000000000000]
Thread-0 #11 prio5 os_prio31 tid0x00007fe690065000 nid0x5a03waiting on condition [0x0000700003ad4000]
C1 CompilerThread3 #9 daemon prio9 os_prio31 tid0x00007fe68c00a000 nid0xa903 waiting on condition [0x0000000000000000]
等待一段时间之后比如10s再次对jstack日志进行grep将其导出到另一个文件如a2.log结果如下所示DestroyJavaVM #12 prio5 os_prio31 tid0x00007fe690066000 nid0x2603 waiting on condition [0x0000000000000000]
Thread-0 #11 prio5 os_prio31 tid0x00007fe690065000 nid0x5a03
waiting on condition [0x0000700003ad4000]
VM Periodic Task Thread os_prio31 tid0x00007fe68d114000 nid0xa803 waiting on condition
重复步骤2待导出3~4个文件之后我们对导出的文件进行对比找出其中在这几个文件中一直都存在的用户线程这个线程基本上就可以确认是包含了处于等待状态有问题的线程。因为正常的请求线程是不会在20~30s之后还是处于等待状态的。经过排查得到这些线程之后我们可以继续对其堆栈信息进行排查如果该线程本身就应该处于等待状态比如用户创建的线程池中处于空闲状态的线程那么这种线程的堆栈信息中是不会包含用户自定义的类的。这些都可以排除掉而剩下的线程基本上就可以确认是我们要找的有问题的线程。通过其堆栈信息我们就可以得出具体是在哪个位置的代码导致该线程处于等待状态了。这里需要说明的是我们在判断是否为用户线程时可以通过线程最前面的线程名来判断因为一般的框架的线程命名都是非常规范的我们通过线程名就可以直接判断得出该线程是某些框架中的线程这种线程基本上可以排除掉。而剩余的比如上面的Thread-0以及我们可以辨别的自定义线程名这些都是我们需要排查的对象。经过上面的方式进行排查之后我们基本上就可以得出这里的Thread-0就是我们要找的线程通过查看其堆栈信息我们就可以得到具体是在哪个位置导致其处于等待状态了。如下示例中则是在SyncTask的第8行导致该线程进入等待了。Thread-0 #11 prio5 os_prio31 tid0x00007f9de08c7000 nid0x5603waiting on condition [0x0000700001f89000]java.lang.Thread.State: WAITING (parking)at sun.misc.Unsafe.park(Native Method)at java.util.concurrent.locks.LockSupport.park(LockSupport.java:304)at com.aibaobei.chapter2.eg4.SyncTask.lambda$main$0(SyncTask.java:8)at com.aibaobei.chapter2.eg4.SyncTask$Lambda$1/1791741888.run
(Unknown Source)at java.lang.Thread.run(Thread.java:748)
5. 死锁对于死锁这种情况基本上很容易发现因为jstack可以帮助我们检查死锁并且在日志中打印具体的死锁线程信息。如下是一个产生死锁的一个jstack日志示例可以看到在jstack日志的底部其直接帮我们分析了日志中存在哪些死锁以及每个死锁的线程堆栈信息。这里我们有两个用户线程分别在等待对方释放锁而被阻塞的位置都是在ConnectTask的第5行此时我们就可以直接定位到该位置并且进行代码分析从而找到产生死锁的原因。6. 小结本文主要讲解了线上可能出现的五种导致系统缓慢的情况详细分析了每种情况产生时的现象已经根据现象我们可以通过哪些方式定位得到是这种原因导致的系统缓慢。简要的说我们进行线上日志分析时主要可以分为如下步骤通过 top命令查看CPU情况如果CPU比较高则通过 top-Hp命令查看当前进程的各个线程运行情况找出CPU过高的线程之后将其线程id转换为十六进制的表现形式然后在jstack日志中查看该线程主要在进行的工作。这里又分为两种情况如果是正常的用户线程则通过该线程的堆栈信息查看其具体是在哪处用户代码处运行比较消耗CPU如果该线程是 VMThread则通过 jstat-gcutil命令监控当前系统的GC状况然后通过 jmapdump:formatb,file导出系统当前的内存数据。导出之后将内存情况放到eclipse的mat工具中进行分析即可得出内存中主要是什么对象比较消耗内存进而可以处理相关代码如果通过 top 命令看到CPU并不高并且系统内存占用率也比较低。此时就可以考虑是否是由于另外三种情况导致的问题。具体的可以根据具体情况分析如果是接口调用比较耗时并且是不定时出现则可以通过压测的方式加大阻塞点出现的频率从而通过 jstack查看堆栈信息找到阻塞点如果是某个功能突然出现停滞的状况这种情况也无法复现此时可以通过多次导出 jstack日志的方式对比哪些用户线程是一直都处于等待状态这些线程就是可能存在问题的线程如果通过 jstack可以查看到死锁状态则可以检查产生死锁的两个线程的具体阻塞点从而处理相应的问题。本文主要是提出了五种常见的导致线上功能缓慢的问题以及排查思路。当然线上的问题出现的形式是多种多样的也不一定局限于这几种情况如果我们能够仔细分析这些问题出现的场景就可以根据具体情况具体分析从而解决相应的问题。
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/929156.shtml
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!