我正在尝试找到将整个Spark数据帧转换为Scala Map集合的最佳解决方案。可以用下面的方式进行更好的说明:
从这里开始(在Spark示例中):
val df = sqlContext.read.json("examples/src/main/resources/people.json")
df.show
+----+-------+
| age| name|
+----+-------+
|null|Michael|
| 30| Andy|
| 19| Justin|
+----+-------+
对于这样表示的Scala集合(Map of Maps):
val people = Map(
Map("age" -> null, "name" -> "Michael"),
Map("age" -> 30, "name" -> "Andy"),
Map("age" -> 19, "name" -> "Justin")
)