Docker中OOM-killer杀死Java应用程序 - 内存使用报告不匹配

10
我们有一个在Docker中运行的Java应用程序。尽管所有JVM统计数据看起来都很正常,但它有时会被oom-killer杀死。我们还有几十个其他没有这种问题的应用程序。
我们的设置:
容器大小限制:480MB
JVM堆限制:250MB
JVM元空间限制:100MB
JVM报告的各种内存统计数据(我们每10秒钟获取一次数据):

JVM stats

容器的日志(可能略微无序,因为我们都使用相同的时间戳获取它们):

java invoked oom-killer: gfp_mask=0xd0, order=0, oom_score_adj=0
java cpuset=47cfa4d013add110d949e164c3714a148a0cd746bd53bb4bafab139bc59c1149 mems_allowed=0
CPU: 5 PID: 12963 Comm: java Tainted: G               ------------ T 3.10.0-514.2.2.el7.x86_64 #1
Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 04/14/2014
0000000000000000 0000000000000000 0000000000000046 ffffffff811842b6
ffff88010c1baf10 000000001764470e ffff88020c033cc0 ffffffff816861cc
ffff88020c033d50 ffffffff81681177 ffff880809654980 0000000000000001
Call Trace:
[<ffffffff816861cc>] dump_stack+0x19/0x1b
[<ffffffff81681177>] dump_header+0x8e/0x225
[<ffffffff8118476e>] oom_kill_process+0x24e/0x3c0
[<ffffffff810937ee>] ? has_capability_noaudit+0x1e/0x30
[<ffffffff811842b6>] ? find_lock_task_mm+0x56/0xc0
[<ffffffff811f3131>] mem_cgroup_oom_synchronize+0x551/0x580
[<ffffffff811f2580>] ? mem_cgroup_charge_common+0xc0/0xc0
[<ffffffff81184ff4>] pagefault_out_of_memory+0x14/0x90
[<ffffffff8167ef67>] mm_fault_error+0x68/0x12b
[<ffffffff81691ed5>] __do_page_fault+0x395/0x450
[<ffffffff81691fc5>] do_page_fault+0x35/0x90
[<ffffffff8168e288>] page_fault+0x28/0x30
Task in /docker/47cfa4d013add110d949e164c3714a148a0cd746bd53bb4bafab139bc59c1149 killed as a result of limit of /docker/47cfa4d013add110d949e164c3714a148a0cd746bd53bb4bafab139bc59c1149
memory: usage 491520kB, limit 491520kB, failcnt 28542
memory+swap: usage 578944kB, limit 983040kB, failcnt 0
kmem: usage 0kB, limit 9007199254740988kB, failcnt 0
Memory cgroup stats for /docker/47cfa4d013add110d949e164c3714a148a0cd746bd53bb4bafab139bc59c1149: cache:32KB rss:491488KB rss_huge:2048KB mapped_file:8KB swap:87424KB inactive_anon:245948KB active_anon:245660KB inactive_file:4KB active_file:4KB unevictable:0KB
[ pid ]   uid  tgid total_vm      rss nr_ptes swapents oom_score_adj name
[12588]     0 12588       46        0       4        4             0 s6-svscan
[12656]     0 12656       46        0       4        4             0 s6-supervise
[12909]     0 12909       46        0       4        3             0 s6-supervise
[12910]     0 12910       46        0       4        4             0 s6-supervise
[12913]     0 12913     1541      207       7       51             0 bash
[12914]     0 12914     1542      206       8       52             0 bash
[12923] 10001 12923     9379     3833      23      808             0 telegraf
[12927] 10001 12927   611126   112606     588    23134             0 java
Memory cgroup out of memory: Kill process 28767 (java) score 554 or sacrifice child
Killed process 12927 (java) total-vm:2444504kB, anon-rss:440564kB, file-rss:9860kB, shmem-rss:0kB

请注意,JVM本身不会报告任何内存不足错误。
JVM报告的统计数据显示堆限制为240MB,非堆使用量为140MB,总共只有380MB,留下100MB的内存供其他进程(主要是telegraf)和JVM堆栈使用(我们认为问题可能是线程数量增加,但从这些统计数据中看来似乎不是问题)。
Oom-killer显示了一堆数字,这些数字与我们的任何设置和其他统计数据都不匹配(页面大小默认为4kB):
  • JVM total-vm: 611126 (2.44GB)
  • JVM rss: 112606 (450MB)
  • JVM anon-rss: 440MB
  • JVM file-rss: 10MB
  • other processes total rss: 4246 (17MB)
  • container memory limit: 491.5MB
所以以下是问题:
  • JVM报告内存使用量为380MB,但oom-killer说该进程正在使用450MB。缺失的70MB在哪里?
  • 容器应该仍然有30MB剩余,oom-killer说其他进程仅使用了17MB,因此应该还有13MB的空闲内存,但它说容器大小等于容器限制。缺失的13MB在哪里?

我看到类似的问题,有人建议Java应用程序可能会分叉其他进程并使用操作系统的内存,这不会显示在JVM内存使用情况中。我们自己没有这样做,但我们仍在审查和测试我们的任何库是否会这样做。无论如何,这是对第一个问题的很好的解释,但第二个问题对我来说仍然是一个谜。


你用什么工具收集JVM指标并生成这张图片的? - Eder F. Freitas
@EderF.Freitas 我们不会将JVM指标收集为图像。数据的可视化是由Grafana完成的。 - Jaroslaw Pawlak
你找出问题原因了吗?我们遇到了非常相似的问题。 - user2105282
@user2105282 抱歉,那是一段时间以前的事了,我不记得了。请看下面的答案 - 我能看到我给它们点了赞,这意味着它们在某种程度上是有用的。 - Jaroslaw Pawlak
2个回答

4
对于第一个问题,查看JVM的确切参数会很有帮助。除了堆、非堆和元空间之外,还有许多其他与GC相关的数据结构。如果您想控制JVM使用的绝对内存,应该使用-XX:MaxRAM,尽管在堆和其他区域上具有更细粒度的控制存在权衡。对于容器化应用程序的常见建议是:
-XX:MaxRAM='cat /sys/fs/cgroup/memory/memory.limit_in_bytes'
准确的使用量测量并不容易。这个来自Mechanical Sympathy列表的线程与该主题相关。我将避免复制粘贴,但该链接会跳转到Gil Tene的评论,其中第二段特别相关: 报告的内存是实际接触的内存,而不是分配的内存。Gil建议使用-XX:+AlwaysPreTouch来“确保所有堆页面实际上都被接触过(这将强制物理内存实际分配,使它们出现在已使用的平衡中)”。与此相关,请注意,您的total_vm为2.44GB,虽然这并非全部在物理内存中(根据*_rss),但它显示进程可能分配了更多的内存,其中一些可能最终被拉入rss。
根据可用数据,我认为最好的指针来自堆图。您的应用程序工作负载在约18:20肯定发生了变化: 有更多的翻新,意味着分配和GC工作(因此,数据)。线程峰值可能不是问题,正如您所说,但它影响jvm内存使用情况(这些额外的25个线程可能需要>25MB,具体取决于您的-Xss)。应用程序的基线接近容器的限制,因此在对内存施加更多压力后,它很可能靠近OOM地带。
转到第二个问题(我不是Linux专家,因此更接近猜测),在您的cgroup统计信息中,不匹配是在rss大小上。据我所知,rss会计算仍在SwapCache上的页面,因此这可能是不匹配的原因。查看您的日志:
memory: usage 491520kB, limit 491520kB, failcnt 28542 memory+swap: usage 578944kB, limit 983040kB, failcnt 0

物理内存确实已经满了,而且您的交换空间也是。我猜想造成更频繁GC周期的相同对象翻转可能会导致数据被交换出去(这时会发生会计不平衡)。在oom-kill之前您没有提供io统计信息,但这些可以帮助确认应用程序确实正在交换,并以什么速率进行交换。此外,在容器上禁用交换可能会有所帮助,因为它将避免溢出到交换空间,并将翻转限制在JVM本身中,让您找到正确的-XX:MaxRAM或-Xmx。

希望这有所帮助!


1

好的,这实际上是一个晚回答,更多是一种观察。 当我尝试使用-XX:MaxRAM时,OOM Killer仍然会启动, 另外,Java进程的NMT读数如何?

请查看此article


网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接