请问有人能告诉我在Scala中如何将Spark DataFrame转换为Array [String]吗?
我尝试使用以下代码:
x =df.select(columns.head, columns.tail: _*).collect()
上述代码片段返回的是一个 Array[Row] 而不是 Array[String]
请问有人能告诉我在Scala中如何将Spark DataFrame转换为Array [String]吗?
我尝试使用以下代码:
x =df.select(columns.head, columns.tail: _*).collect()
上述代码片段返回的是一个 Array[Row] 而不是 Array[String]
这应该能解决问题:
df.select(columns: _*).collect.map(_.toSeq)
将DataFrame转换为Array[String]
data.collect.map(_.toSeq).flatten
data.collect.map(row=>row.getString(0))
data.rdd.map(row=>row.getString(0)).collect
Dataset<Row>csv=session.read().format("csv").option("sep",",").option("inferSchema",true).option("escape, "\"").option("header", true).option("multiline",true).load(users/abc/....);
for(Iterator<Row> iter = csv.toLocalIterator(); iter.hasNext();) {
String[] item = ((iter.next()).toString().split(",");
}
x =df.select(columns.head, columns.tail: _*).collect().map { row => row.toString() }
谢谢,Bharath
collect()
在DataFrame上通常不是您使用它的方式。相反,您应该使用show()
。 - OneCricketeer
.map { 行 => 行.toString() }
。 - OneCricketeer