我正在使用本地独立集群,在我的Windows电脑上尝试使用以下代码从我们的服务器中加载数据 -
from pyspark.sql import SQLContext
sqlContext = SQLContext(sc)
df = sqlContext.load(source="jdbc", url="jdbc:postgresql://host/dbname", dbtable="schema.tablename")
我已经将SPARK_CLASSPATH设置为-
os.environ['SPARK_CLASSPATH'] = "C:\Users\ACERNEW3\Desktop\Spark\spark-1.3.0-bin-hadoop2.4\postgresql-9.2-1002.jdbc3.jar"
在执行 sqlContext.load 时,出现了错误提示“jdbc:postgresql”找不到合适的驱动程序。我试图在网上查找解决方案,但并没有找到可行的解决方法。