这里使用的是Spark 1.6.2 和 Scala 2.10。
我想要使用一个字符串数组来筛选 Spark 数据框中的列。
val df1 = sc.parallelize(Seq((1, "L-00417"), (3, "L-00645"), (4, "L-99999"),(5, "L-00623"))).toDF("c1","c2")
+---+-------+
| c1| c2|
+---+-------+
| 1|L-00417|
| 3|L-00645|
| 4|L-99999|
| 5|L-00623|
+---+-------+
val df2 = sc.parallelize(Seq((1, "L-1"), (3, "L-2"), (4, "L-3"),(5, "L-00623"))).toDF("c3","c4")
+---+-------+
| c3| c4|
+---+-------+
| 1| L-1|
| 3| L-2|
| 4| L-3|
| 5|L-00623|
+---+-------+
val c2List = df1.select("c2").as[String].collect()
df2.filter(not($"c4").contains(c2List)).show()`
我遇到了以下错误:
不支持的字面类型class [Ljava.lang.String; [Ljava.lang.String;@5ce1739c
请问有人能帮忙解决这个问题吗?
df2.filter(not($"c4".isin(c2List: _*)))
- Ramesh