这是我的Java代码,我使用Apache Spark SQL从Hive查询数据。
JavaSparkContext ctx = new JavaSparkContext(new SparkConf().setAppName("LoadData").setMaster("MasterUrl"));
HiveContext sqlContext = new HiveContext(ctx.sc());
List<Row> result = sqlContext.sql("Select * from Tablename").collectAsList();
当我运行这段代码时,它会抛出java.lang.OutOfMemoryError: GC overhead limit exceeded。如何解决这个问题或者如何在Spark配置中增加内存。
*
?否则,我想你将不得不使用偏移/限制将其分成较小的查询块。 - Mateusz Dymczyk