我正在尝试对带有不同时间戳的Hive表进行分区。 我有一个包含时间戳的表,但当我执行Hive分区查询时,它说这不是有效的分区列。 这是表:
+---+-----------------------+
|id |rc_timestamp |
+---+-----------------------+
|1 |2017-06-12 17:18:39.824|
|2 |2018-06-12 17:18:39.824|
|3 |2019-06-12 17:18:39.824|
+---+-----------------------+
spark.sql("SET hive.exec.dynamic.partition.mode=nonrestrict")
val tempTable = spark.sql("SELECT * FROM partition_table")
val df = tempTable.select("rc_timestamp")
val a = x.toString().replaceAll("[\\[\\]]","")
df.collect().foreach(a => {
spark.sql(s"ALTER TABLE mydb.partition_table ADD IF NOT EXISTS PARTITION
(rc_timestamp = '$a')").show()
)}
这是我遇到的错误:
org.apache.spark.sql.AnalysisException: rc_timestamp is not a valid partition column
in table mydb.partition_table.;