我在一本Spark书中读到:
驱动程序通过代表与计算集群的连接的SparkContext对象访问Spark。在shell中,SparkContext会自动创建为名为sc的变量。尝试打印sc以查看其类型。
sc
当我输入sc时,它给了我一个错误20值sc未找到的错误。有什么想法为什么我的scala spark shell中没有自动创建sc?
我试图手动创建一个sc,但它给了我一个错误,说JVM中已经有一个Spark上下文。请参见图片:
http://s30.photobucket.com/user/kctestingeas1/media/No%20Spark%20Context.jpg.html
我相信我已经进入了scala spark shell,因为您可以在我的命令窗口顶部看到指示bin \ spark-shell。
请提供建议。谢谢。