我正在编写Scala代码,需要将数据写入HDFS文件中。在本地使用
我的问题是:如果我只想将int或string写入Apache Spark的文件中,该怎么办?
跟进: 我需要将头部、DataFrame内容写入输出文件,然后附加一些字符串。使用
Filewriter.write
可以正常工作,但在HDFS上无法正常工作。
经过查询,我发现在Apache Spark中有以下选项可用于写入:
RDD.saveAsTextFile
和 DataFrame.write.format
。我的问题是:如果我只想将int或string写入Apache Spark的文件中,该怎么办?
跟进: 我需要将头部、DataFrame内容写入输出文件,然后附加一些字符串。使用
sc.parallelize(Seq(<String>))
是否有帮助?