我正在使用集群节点上的Pyspark内核的Jupyter Notebook,问题是我的/tmp
文件夹总是满的。我已经更新了参数:
SPARK_WORKER_OPTS="-Dspark.worker.cleanup.enabled=true -Dspark.worker.cleanup.appDataTtl=172800"
问题在于该文件夹只有200GB,是否有办法在关闭Jupyter内核时告诉Spark进行清理?或者我应该将
Dspark.worker.cleanup.appDataTtl
设置为30分钟,这样每30分钟所有临时文件/日志都会被删除?