其他分享
首页 > 其他分享> > 大数据技术之Kafka 第4章 Kafka 自定义Interceptor

大数据技术之Kafka 第4章 Kafka 自定义Interceptor

作者:互联网

4.3 自定义Interceptor

4.3.1 拦截器原理

Producer拦截器(interceptor)是在Kafka 0.10版本被引入的,主要用于实现clients端的定制化控制逻辑。

对于producer而言,interceptor使得用户在消息发送前以及producer回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。同时,producer允许用户指定多个interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:

(1)configure(configs)

获取配置信息和初始化数据时调用。

(2)onSend(ProducerRecord):

该方法封装进KafkaProducer.send方法中,即它运行在用户主线程中。Producer确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的topic和分区,否则会影响目标分区的计算。

(3)onAcknowledgement(RecordMetadata, Exception):

该方法会在消息从RecordAccumulator成功发送到Kafka Broker之后,或者在发送过程中失败时调用。并且通常都是在producer回调逻辑触发之前。onAcknowledgement运行在producer的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢producer的消息发送效率。

(4)close:

关闭interceptor,主要用于执行一些资源清理工作

如前所述,interceptor可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个interceptor,则producer将按照指定顺序调用它们,并仅仅是捕获每个interceptor可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

4.3.2 拦截器案例

1)需求:

实现一个简单的双interceptor组成的拦截链。第一个interceptor会在消息发送前将时间戳信息加到消息value的最前部;第二个interceptor会在消息发送后更新成功发送消息数或失败发送消息数。

2)案例实操

image-20220226223355103

(1)增加时间戳拦截器

package com.wolffy.kafka.interceptor;

import com.sun.org.apache.regexp.internal.RE;
import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Map;

/**
 * 该拦截器实现的功能:
 *    将时间戳添加到消息的前面.
 */
public class TimeStampInterceptor implements ProducerInterceptor<String,String> {

    /**
     * 拦截器的核心处理方法
     * @param record  被拦截处理的消息
     * @return
     */
    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        // 1. 获取消息的value
        String value = record.value();
        String result = System.currentTimeMillis() + "->" + value ;

        //2. 重新构建新的消息对象
        ProducerRecord<String, String> newRecord =
                new ProducerRecord<>(record.topic(), record.partition(), record.key(), result);

        return newRecord;
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {

    }

    @Override
    public void close() {

    }

    @Override
    public void configure(Map<String, ?> configs) {

    }
}

(2)统计发送消息成功和发送失败消息数,并在producer关闭时打印这两个计数器

package com.wolffy.kafka.interceptor;

import org.apache.kafka.clients.producer.ProducerInterceptor;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Map;

/**
 * 该拦截器实现的功能:
 *    统计发送成功和失败的消息个数
 */
public class CountInterceptor implements ProducerInterceptor<String,String> {
    private int success ;
    private int fail ;


    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        return record;
    }

    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
        if(exception != null){
            fail ++ ;
        }else{
            success ++ ;
        }
    }

    @Override
    public void close() {
        System.out.println("SUCCESS: " + success);
        System.out.println("FAIL: " + fail);
    }

    @Override
    public void configure(Map<String, ?> configs) {

    }
}

(3)producer主程序

package com.wolffy.kafka.interceptor;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;

import java.util.ArrayList;
import java.util.List;
import java.util.Properties;

/**
 * 生产者 - 拦截器
 */
public class KafkaProducerInterceptor {
    public static void main(String[] args) {
        //0. 创建配置对象
        Properties props= new Properties();

        //kafka集群,broker-list
        props.put("bootstrap.servers", "hadoop102:9092");
        // ack的级别
        props.put("acks", "all");
        //重试次数
        props.put("retries", 3);
        //批次大小
        props.put("batch.size", 16384);
        //等待时间
        props.put("linger.ms", 1);
        //RecordAccumulator缓冲区大小
        props.put("buffer.memory", 33554432);  //32M
        // kv的序列化器
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        // 配置拦截器
        List<String> interceptors = new ArrayList<String>();
        interceptors.add("com.wolffy.kafka.interceptor.TimeStampInterceptor");
        interceptors.add("com.wolffy.kafka.interceptor.CountInterceptor") ;
        props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG,interceptors);


        //1. 创建生产者对象
        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<String, String>(props);

        //2. 生产数据
        for (int i = 0; i < 20 ; i++) {
            kafkaProducer.send(new ProducerRecord<String,String>("first", "wolffy" + i));
        }

        //3. 关闭对象
        kafkaProducer.close();
    }
}

3)测试

(1)在kafka上启动消费者,然后运行客户端java程序。

[wolffy@hadoop102 kafka]$ bin/kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first
1501904047034,message0
1501904047225,message1
1501904047230,message2
1501904047234,message3
1501904047236,message4
1501904047240,message5
1501904047243,message6
1501904047246,message7
1501904047249,message8
1501904047252,message9

IT学习网站

牛牛IT网站:https://www.cowcowit.com/

Kafka学习资源推荐

Kafka多维度系统精讲-从入门到熟练掌握
链接: https://pan.baidu.com/s/1fvhFRu9eExVKq8tGr3mPsw 提取码: 2mdb
--来自百度网盘超级会员v4的分享
失效加V:x923713

标签:自定义,producer,kafka,org,apache,import,interceptor,Kafka,Interceptor
来源: https://www.cnblogs.com/niuniu2022/p/16345816.html