我正在尝试解决内存耗尽的问题,想知道是否需要更改位于spark主目录下的默认配置文件(
我看到了这个问题:PySpark: java.lang.OutofMemoryError: Java heap space,它说这取决于我是否在
但是,如何确定我是否在
spark-defaults.conf
)中的这些设置,或者是否可以在代码中设置。我看到了这个问题:PySpark: java.lang.OutofMemoryError: Java heap space,它说这取决于我是否在
client
模式下运行。我正在一个集群上运行spark,并使用standalone进行监控。但是,如何确定我是否在
client
模式下运行spark?