我在pyspark中运行python脚本时遇到了以下错误:
NameError: name 'spark' is not defined
我查找了一下,发现原因是还不允许使用spark.dynamicAllocation.enabled。
根据Spark的文档(https://jaceklaskowski.gitbooks.io/mastering-apache-spark/content/spark-dynamic-allocation.html#spark_dynamicAllocation_enabled),spark.dynamicAllocation.enabled(默认值为false)控制是否启用动态分配。假设spark.executor.instances未设置或为0(默认值)。
由于默认设置为false,因此需要更改Spark设置以启用spark.dynamicAllocation.enabled。
我使用brew安装了Spark,并且没有更改其配置/设置。
如何更改设置并启用spark.dynamicAllocation.enabled?
非常感谢。
我查找了一下,发现原因是还不允许使用spark.dynamicAllocation.enabled。
根据Spark的文档(https://jaceklaskowski.gitbooks.io/mastering-apache-spark/content/spark-dynamic-allocation.html#spark_dynamicAllocation_enabled),spark.dynamicAllocation.enabled(默认值为false)控制是否启用动态分配。假设spark.executor.instances未设置或为0(默认值)。
由于默认设置为false,因此需要更改Spark设置以启用spark.dynamicAllocation.enabled。
我使用brew安装了Spark,并且没有更改其配置/设置。
如何更改设置并启用spark.dynamicAllocation.enabled?
非常感谢。