所以我执行必要的导入等操作。
import org.apache.spark.sql.functions.udf
import org.apache.spark.sql.types._
import spark.implicits._
然后定义一些经纬度点。
val london = (1.0, 1.0)
val suburbia = (2.0, 2.0)
val southampton = (3.0, 3.0)
val york = (4.0, 4.0)
我接下来创建了一个 Spark Dataframe,如下所示,并检查其是否有效:
val exampleDF = Seq((List(london,suburbia),List(southampton,york)),
(List(york,london),List(southampton,suburbia))).toDF("AR1","AR2")
exampleDF.show()
数据框架包含以下类型
DataFrame = [AR1: array<struct<_1:double,_2:double>>, AR2: array<struct<_1:double,_2:double>>]
我创建了一个函数来创建点的组合
// function to do what I want
val latlongexplode = (x: Array[(Double,Double)], y: Array[(Double,Double)]) => {
for (a <- x; b <-y) yield (a,b)
}
我检查函数是否正常工作
latlongexplode(Array(london,york),Array(suburbia,southampton))
它确实能够实现。但是,当我将此函数创建为用户定义函数后
// declare function into a Spark UDF
val latlongexplodeUDF = udf (latlongexplode)
当我尝试像这样在我创建的Spark DataFrame中使用它:
exampleDF.withColumn("latlongexplode", latlongexplodeUDF($"AR1",$"AR2")).show(false)
我得到了一个非常长的堆栈跟踪,基本上可以归结为:
java.lang.ClassCastException: scala.collection.mutable.WrappedArray$ofRef无法转换为 [Lscala.Tuple2;
org.apache.spark.sql.catalyst.expressions.ScalaUDF.$anonfun$f$3(ScalaUDF.scala:121) org.apache.spark.sql.catalyst.expressions.ScalaUDF.eval(ScalaUDF.scala:1063) org.apache.spark.sql.catalyst.expressions.Alias.eval(namedExpressions.scala:151) org.apache.spark.sql.catalyst.expressions.InterpretedProjection.apply(Projection.scala:50) org.apache.spark.sql.catalyst.expressions.InterpretedProjection.apply(Projection.scala:32) scala.collection.TraversableLike.$anonfun$map$1(TraversableLike.scala:273)
如何在Scala Spark中使这个UDF工作?(我目前使用2.4版本)
编辑:可能是我构建示例数据框的方式有问题。但是我实际数据中每列都是大小不定的经纬度元组数组。