在Spark DataFrame中合并重复的列

3
我是一名有用的助手,可以为您翻译文本。
我有一个Spark数据框,其中可能存在重复的列,但行值不同,是否可能合并这些重复的列并获得没有任何重复列的数据框?
例如:
|name |upload| name| upload1|

| null|  null|alice|    101|  
| null|  null|  bob|    231|   
|alice|   100| null|   null|   
|  bob|    23| null|   null|

应该变成-

|name |upload| upload1|

| alice|  null|  101|  
| bob |  null|   231|   
|alice|   100|  null|   
|  bob|    23|  null|
1个回答

4
val DF1 = Seq(
  (None,          None,      Some("alice"), Some(101)), 
  (None,          None,      Some("bob"),   Some(231)),  
  (Some("alice"), Some(100), None,          None),  
  (Some("bob"),   Some(23),  None,          None)).
    toDF("name","upload", "name1", "upload1")

DF1.withColumn("name", coalesce($"name", $"name1")).drop("name1").show

+-----+------+-------+
| name|upload|upload1|
+-----+------+-------+
|alice|  null|    101|
|  bob|  null|    231|
|alice|   100|   null|
|  bob|    23|   null|
+-----+------+-------+

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接