我将尝试实现一个MapReduce任务,每个mapper将处理文本文件中的150行,并且所有mapper将同时运行;此外,无论有多少个map任务失败,它都不应该失败。
以下是配置部分:
问题在于Hadoop为每一行文本创建一个mapper,它们似乎是依次运行的,如果其中一个失败,整个任务就会失败。
由此我推断出,我应用的设置没有任何效果。
我做错了什么?
以下是配置部分:
JobConf conf = new JobConf(Main.class);
conf.setJobName("My mapreduce");
conf.set("mapreduce.input.lineinputformat.linespermap", "150");
conf.set("mapred.max.map.failures.percent","100");
conf.setInputFormat(NLineInputFormat.class);
FileInputFormat.addInputPath(conf, new Path(args[0]));
FileOutputFormat.setOutputPath(conf, new Path(args[1]));
问题在于Hadoop为每一行文本创建一个mapper,它们似乎是依次运行的,如果其中一个失败,整个任务就会失败。
由此我推断出,我应用的设置没有任何效果。
我做错了什么?