我刚开始学习Apache Spark,想知道为什么以下代码对我无效。
我正在运行Spark 2.1,并启动了一个Master和一个Worker(非本地)。这是我的代码:
object SimpleApp {
def main(args: Array[String]) {
val file = [FILELOCATION]
val conf = new SparkConf().setAppName("Simple Application")
val sc = new SparkContext(conf)
val textFile = sc.textFile(file)
val counts = textFile.flatMap(line => line.split(" "))
.map(word => (word.toLowerCase.toCharArray.toList.sorted.mkString, 1))
.reduceByKey(_ + _)
counts.map(println)
counts.foreach(println)
val countCollect = counts.collect()
sc.stop()
}
}
我似乎无法让工作节点在标准输出中打印出其内容。即使我将主节点和工作节点设置为本地,似乎也不起作用。
这里我是否理解错了什么?
spark-submit
来运行作业的? - Ramesh MaharjancountCollect.map(println)
吗?如果可以的话,请告诉我。 - code