首页 > TAG信息列表 > TopicPartition

alpakka-kafka(8)-kafka数据消费模式实现

  上篇介绍了kafka at-least-once消费模式。kafka消费模式以commit-offset的时间节点代表不同的消费模式,分别是:at-least-once, at-most-once, exactly-once。上篇介绍的at-least-once消费模式是通过kafka自身的auto-commit实现的。事后想了想,这个应该算是at-most-once模式,因为消

【原创】大数据基础之Kafka(2)reassign过程

reassign过程 选择每个partition的各个replica分布到哪个broker 每个partition的第一个replica随机选择一个broker 除第一个replica之外其他的replicas会加一个随机shift之后顺序选择n-1个broker 选择这个broker中多个log_dir中的哪个来存放 如果这个broker之前存在该partiti

Kafka中Consumer订阅主题与分区的几种方式

subscribe()方法订阅 1.以集合的形式订阅多个主题,如果前后两次订阅了不同的主题,那么消费者以最后一次为准 @Override public void subscribe(Collection<String> topics) { subscribe(topics, new NoOpConsumerRebalanceListener()); } // 订阅了topic-demo主题 consumer.

Kafka--Consumer消费者

转:https://www.cnblogs.com/dingwpmz/p/12185196.html 温馨提示:整个 Kafka 专栏基于 kafka-2.2.1 版本。 1、KafkaConsumer 概述 根据 KafkaConsumer 类上的注释上来看 KafkaConsumer 具有如下特征: 在 Kafka 中 KafkaConsumer 是线程不安全的。 2.2.1 版本的KafkaConsumer 兼容

关于kafka定期清理日志后再消费报错kafka.common.OffsetOutOfRangeException的解决

     环境: kafka  0.10 spark  2.1.0 zookeeper  3.4.5-cdh5.14.0 公司阿里云测试机,十月一放假前,没有在继续消费,假期过后回来再使用spark streaming消费某个消费组下的kafka时报错如下: As I regularly kill the servers running Kafka and the producers feeding it (yes,