502 Bad Gateway 引起的反思
您目前处于:  2015-01-17

今天突然系统调用出现大量 502 错误! 502 错误是请求已经到了HTTP服务器(Nginx),但是在反向代理时请求不到应用服务器(Tomcat)!

查看了实例应用的 JVM 探针!下面是异常前日和当日(上图是昨日,下图是今日)各项参数的对比。

1. CPU: 昨天的 CPU 使用率稳定 4%,而今日则有较大波动!

2. JVM 堆内存:两日相比,异常当日 JVM 堆内存的增长较前日要异常的!

3. Full GC:由于 JVM 对内存增长很快,造成 Full GC 的次数较前日有明显增加!

4. Young GC:对比两日的 Young GC,频次也有较大不同!

6. 线程数:昨日的线程数稳定在 1100+ 左右,而今天在异常时段暴涨到 1700+!

JVM 各项参数的异常,尤其是线程数的暴涨!再查看的服务器的系能参数(上图是昨日,下图是今日)。

1. TCP Conn:昨日的 TCP Conn 稳定波动在 100~200 之间,而今天在异常时段达到到 6000!

这就是问题点,Tomcat 的默认线程池大小是 1000个,而且请求多是 Http 短连接,其实很难线程池溢出!

2. Load:系统 Load 在异常时段较昨日下降很多,推断:极有可能是有请求超时,后续的请求被堵塞,同时 系统 Load 下降!

根据已上推断,检查所有方法调用监控!

确有发现(上图是今日、下图是昨日),一外部方法调用的 TP99 达到 150s,而昨日正常 100ms!

追诉其根本,由于该方法还调用了内部服务,属于 RPC 调用,检查其方法调用,发现方法可用率跌至 7%,同时调用次数也急剧上上!

至此,系统 502 Bad Gateway的问题定位!

同时也吸取教训,作为系统外部服务的提供者,尤其是接入层,对接逻辑容器时,应该添加缓冲队列!由同步改成异步调用!


本文受原创保护,未经作者授权,禁止转载。 linkedkeeper.com (文/张松然)  ©著作权归作者所有