Spark- 将JavaRDD保存到Cassandra

5

这个链接展示了一种将JavaRDD保存到Cassandra的方法:

import static com.datastax.spark.connector.CassandraJavaUtil.*;

JavaRDD<Product> productsRDD = sc.parallelize(products);
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products");

但是com.datastax.spark.connector.CassandraJavaUtil.*似乎已经过时了。更新后的API应该是:

import static com.datastax.spark.connector.japi.CassandraJavaUtil.*;

有人能给我展示一些代码,使用上面更新的API将JavaRDD存储到Cassandra中吗?

2个回答

6

按照文档所述,应该像这样实现:

javaFunctions(rdd).writerBuilder("ks", "people", mapToRow(Person.class)).saveToCassandra();

0

替换

JavaRDD<Product> productsRDD = sc.parallelize(products);
javaFunctions(productsRDD, Product.class).saveToCassandra("java_api", "products »);

JavaRDD<Product> productsRDD = javaFunctions(sc).cassandraTable("java_api", "products", mapRowTo(Product.class));

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接