我正在尝试运行一个Spark程序,其中有多个jar文件,但如果我只有一个jar文件,我无法运行。我希望将位于同一位置的两个jar文件都添加进去。我已经尝试过下面的方法,但它显示了依赖错误。
spark-submit \
--class "max" maxjar.jar Book1.csv test \
--driver-class-path /usr/lib/spark/assembly/lib/hive-common-0.13.1-cdh5.3.0.jar
如何将与当前jar文件在同一目录下的另一个jar文件添加进来?
我想要添加/usr/lib/spark/assembly/lib/hive-serde.jar
。
spark-submit [restofyouroptions] --conf "spark.driver.extraClassPath=myjarfile.jar"
- Zahra"spark.driver.extraClassPath=/path/myjarfile1.jar:/path/myjarfile2.jar"
- Zahra