我知道我们可以从普通的Java应用程序中调用Map-Reduce作业。在我的情况下,Map-Reduce作业必须处理HDFS上的文件以及其他文件系统上的文件。在Hadoop中是否可以同时访问其他文件系统中的文件并使用HDFS上的文件?这是可能的吗?
因此,我的意图基本上是有一个大文件,我想将其放入HDFS进行并行计算,然后将该文件的块与一些其他文件进行比较(我不想将它们放入HDFS,因为需要一次性访问全长文件)。
因此,我的意图基本上是有一个大文件,我想将其放入HDFS进行并行计算,然后将该文件的块与一些其他文件进行比较(我不想将它们放入HDFS,因为需要一次性访问全长文件)。