在Spark文档中指出,默认的zstd压缩级别为1。https://spark.apache.org/docs/latest/configuration.html
我在spark-defaults.conf和代码内部设置了不同的值。
使用相同的输入,多次将其保存/写入parquet格式并使用zstd压缩,并没有改变输出文件的大小。如何在Spark中调整此压缩级别?
val conf = new SparkConf(false)
conf.set("spark.io.compression.zstd.level", "22")
val spark = SparkSession.builder.config(conf).getOrCreate()
..
使用相同的输入,多次将其保存/写入parquet格式并使用zstd压缩,并没有改变输出文件的大小。如何在Spark中调整此压缩级别?
spark.io.compression.codec="zstd"
和将spark.io.compression.zstd.level
设置为超过20
的方式启动相当大的Spark管道(至少具有一些连接)吗? :) - ei-grad