使用以下配置运行处理1 TB数据的Spark作业:
33G执行器内存 40个执行器 每个执行器5个核心
17g的内存overhead
导致此错误的可能原因是什么?
使用以下配置运行处理1 TB数据的Spark作业:
33G执行器内存 40个执行器 每个执行器5个核心
17g的内存overhead
导致此错误的可能原因是什么?
更多信息:http://www.wdong.org/wordpress/blog/2015/01/08/spark-on-yarn-where-have-all-my-memory-gone/。这个链接似乎有点失效了(它深入探讨了YARN吞噬内存的方式)。这个链接可能有效:http://m.blog.csdn.net/article/details?id=50387104。如果不行,请尝试谷歌搜索“spark on yarn where have all my memory gone”
可能出现的问题是虚拟内存占用比例远大于物理内存。您可以在yarn-site.xml中将yarn.nodemanager.vmem-check-enabled
设置为false
,以查看是否有所改善。如果错误停止,则可能是该问题。
我曾在其他地方回答过类似的问题,并在那里提供了更多信息:https://dev59.com/aFkR5IYBdhLWcg3w1gZt#42091255