其他分享
首页 > 其他分享> > 大数据之Hadoop(MapReduce): shuffle之Combiner合并

大数据之Hadoop(MapReduce): shuffle之Combiner合并

作者:互联网

目录

1.Combiner合并

1.Combiner是MR程序中Mapper和Reducer之外的一种组件。
2.Combiner组件的父类就是Reducer。
3.Combiner和Reducer的区别在于运行的位置
Combiner是在每一个MapTask所在的节点运行;
Reducer是接收全局所有Mapper的结果;
4.Combiner的意义就是对每一个MapTask的输出进行局部汇总,以减少网络传输量。
5.Combiner能够应用的前提是不能影响最终的业务逻辑,而且,Combiner的输出kv应该跟Reducer的输入kv类型要对应起来;
Mapper Reducer
3 5 7 -->(3+5+7)/3=5 (3+5+7+2+6)/5=23/5 不等于(5+4)/2=9/2
2 6 -->(2+6)/2=4

2.自定义Combiner实现步骤

a.自定义一个Combiner继承Reducer,重写Reduce方法

public class WordcountCombiner extends Reducer<Text, IntWritable, Text,IntWritable>{

	@Override
	protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {

        // 1 汇总操作
		int count = 0;
		for(IntWritable v :values){
			count += v.get();
		}

        // 2 写出
		context.write(key, new IntWritable(count));
	}
}

b.在Job驱动类中设置:

job.setCombinerClass(WordcountCombiner.class);

标签:count,Mapper,Combiner,shuffle,自定义,--,Reducer,Hadoop
来源: https://blog.csdn.net/weixin_43597208/article/details/117804168