我可以使用HiveContext在我的Spark代码中将数据插入到Hive表中,如下所示。
但是,这种方法会为每次插入创建一个在仓库中的独立文件,如下所示。
有没有办法避免这种情况,只将新数据追加到单个文件中,或者有没有其他更好的方法从Spark向Hive插入数据?
val sqlContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlContext.sql("CREATE TABLE IF NOT EXISTS e360_models.employee(id INT, name STRING, age INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' LINES TERMINATED BY '\n'")
sqlContext.sql("insert into table e360_models.employee select t.* from (select 1210, 'rahul', 55) t")
sqlContext.sql("insert into table e360_models.employee select t.* from (select 1211, 'sriram pv', 35) t")
sqlContext.sql("insert into table e360_models.employee select t.* from (select 1212, 'gowri', 59) t")
val result = sqlContext.sql("FROM e360_models.employee SELECT id, name, age")
result.show()
但是,这种方法会为每次插入创建一个在仓库中的独立文件,如下所示。
part-00000
part-00000_copy_1
part-00000_copy_2
part-00000_copy_3
有没有办法避免这种情况,只将新数据追加到单个文件中,或者有没有其他更好的方法从Spark向Hive插入数据?