大数据之Hadoop(MapReduce): shuffle之Combiner合并
作者:互联网
目录
1.Combiner合并
1.Combiner是MR程序中Mapper和Reducer之外的一种组件。
2.Combiner组件的父类就是Reducer。
3.Combiner和Reducer的区别在于运行的位置
Combiner是在每一个MapTask所在的节点运行;
Reducer是接收全局所有Mapper的结果;
4.Combiner的意义就是对每一个MapTask的输出进行局部汇总,以减少网络传输量。
5.Combiner能够应用的前提是不能影响最终的业务逻辑,而且,Combiner的输出kv应该跟Reducer的输入kv类型要对应起来;
Mapper Reducer
3 5 7 -->(3+5+7)/3=5 (3+5+7+2+6)/5=23/5 不等于(5+4)/2=9/2
2 6 -->(2+6)/2=4
2.自定义Combiner实现步骤
a.自定义一个Combiner继承Reducer,重写Reduce方法
public class WordcountCombiner extends Reducer<Text, IntWritable, Text,IntWritable>{
@Override
protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
// 1 汇总操作
int count = 0;
for(IntWritable v :values){
count += v.get();
}
// 2 写出
context.write(key, new IntWritable(count));
}
}
b.在Job驱动类中设置:
job.setCombinerClass(WordcountCombiner.class);
标签:count,Mapper,Combiner,shuffle,自定义,--,Reducer,Hadoop 来源: https://blog.csdn.net/weixin_43597208/article/details/117804168