Linux 出现 “TCP: out of memory — consider tuning tcp_mem” 后的正确处理顺序

10次阅读

遇到“TCP: out of memory”日志,需先排查连接积、慢速攻击或应用未及时收包/关连接等根因,再按需合理调整tcp_mem三元组及配套参数,避免盲目调大加剧OOM。

Linux 出现 “TCP: out of memory — consider tuning tcp_mem” 后的正确处理顺序ailure),若有,优先处理整体内存压力

检查是否存在连接堆积或异常流量

tcp_mem 被耗尽,90% 情况源于应用层未及时收包、连接未释放,或遭受慢速攻击(如 Slowloris)。

  • 执行 ss -tan state established | wc -lss -tan state syn-recv | wc -l,对比正常基线;SYN_RECV 过多可能遭遇 SYN Flood
  • ss -tan state established | awk '{print $5}' | cut -d: -f1 | sort | uniq -c | sort -nr | head -10 查看连接最多的客户端 IP,结合业务判断是否异常
  • 检查应用日志:是否有大量 read timeout、connection reset、或长时间未 close socket 的痕迹(如 java 应用忘记调用 Inputstream.close()

合理调整 tcp_mem(仅在确认是配置不合理时)

tcp_mem 是三元组:min pressure max,单位为页(通常 4KB)。调整必须保持逻辑关系:min ≤ pressure ≤ max,且 pressure 应设为预期峰值缓冲区用量的 1.2~1.5 倍。

  • 先估算:假设平均每个连接缓冲区占用 256KB,峰值连接数 10000,则总需求约 2.5GB → 对应页数 ≈ 2.5 * 1024 * 1024 / 4 ≈ 655360 页;建议设为 131072 262144 786432
  • 临时生效:sysctl -w net.ipv4.tcp_mem="131072 262144 786432"
  • 永久生效:写入 /etc/sysctl.conf,并运行 sysctl -p
  • ⚠️ 注意:盲目将 max 设得过大(如超物理内存 30%)会导致内核过度保留内存,反而加剧其他子系统 OOM

同步优化配套参数与应用行为

单调 tcp_mem 治标不治本,需配合调整降低单连接内存占用、加快连接回收。

  • 减小默认缓冲区:sysctl -w net.ipv4.tcp_rmem="4096 16384 393216"net.ipv4.tcp_wmem="4096 16384 393216"(第三个值不宜超过 tcp_mem[2] 的 1/2)
  • 加速 TIME-WaiT 回收(仅当确认无 NAT 问题时):sysctl -w net.ipv4.tcp_tw_reuse=1net.ipv4.tcp_fin_timeout=30
  • 应用层务必启用 keepalive(如 nginxkeepalive_timeout,Java 的 Socket.setKeepAlive(true)),并确保业务逻辑显式关闭空闲连接
text=ZqhQzanResources