如何使用nose
运行用Python编写的Apache Spark应用程序的单元测试?
通常情况下,使用nose
只需调用以下命令:
nosetests
为了运行Python包中tests
目录下的测试,需要使用nosetests
命令。但是,为了能够导入pyspark
模块,需要使用spark-submit
命令来运行Pyspark脚本,而不是通常的Python可执行文件。那么,如何结合nosetests
和pyspark
运行Spark应用程序的测试呢?
如何使用nose
运行用Python编写的Apache Spark应用程序的单元测试?
通常情况下,使用nose
只需调用以下命令:
nosetests
为了运行Python包中tests
目录下的测试,需要使用nosetests
命令。但是,为了能够导入pyspark
模块,需要使用spark-submit
命令来运行Pyspark脚本,而不是通常的Python可执行文件。那么,如何结合nosetests
和pyspark
运行Spark应用程序的测试呢?
如果有帮助的话,我们使用nosetest来测试sparkling pandas。我们在utils文件中做了一些魔法,根据SPARK_HOME shell环境变量将pyspark添加到路径中。