在Scala Spark Shell中,Spark Context不会自动创建

9

我在一本Spark书中读到:

驱动程序通过代表与计算集群的连接的SparkContext对象访问Spark。在shell中,SparkContext会自动创建为名为sc的变量。尝试打印sc以查看其类型。

sc

当我输入sc时,它给了我一个错误20值sc未找到的错误。有什么想法为什么我的scala spark shell中没有自动创建sc?

我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个Spark上下文。请参见图片:

http://s30.photobucket.com/user/kctestingeas1/media/No%20Spark%20Context.jpg.html

我相信我已经进入了scala spark shell,因为您可以在我的命令窗口顶部看到指示bin \ spark-shell。

请提供建议。谢谢。

1个回答

14
希望您已经找到了答案,因为我也遇到了同样的问题。
同时,可以使用以下解决方法。在Scala Spark shell中输入:
  1. import org.apache.spark.SparkContext
  2. val sc = SparkContext.getOrCreate()
这样,您就可以访问sc了。

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接