其他分享
首页 > 其他分享> > kafka的协调服务Zookeeper

kafka的协调服务Zookeeper

作者:互联网

RocketMQ 的 NameServer 虽然设计非常简洁,但很好地解决了路由寻址的问题。
而 Kafka 却采用了完全不同的设计思路,它选择使用 ZooKeeper 这样一个分布式协调服 务来实现和 RocketMQ 的 NameServer 差不多的功能。
先简单了解一下 ZooKeeper,然后再来一起学习一下 Kafka 是如何借助 ZooKeeper 来构建集群,实现路由寻址的。

一、Zookeeper的作用

Apache ZooKeeper 它是一个非常特殊的中间件,为什么这么说呢?一般来说,像中间件 类的开源产品,大多遵循“做一件事,并做好它。”这样的 UNIX 哲学,每个软件都专注 于一种功能上。而 ZooKeeper 更像是一个“瑞士军刀”,它提供了很多基本的操作,能实 现什么样的功能更多取决于使用者如何来使用它。

ZooKeeper 作为一个分布式的协调服务框架主要用来解决分布式集群中,应用系统需要 面对的各种通用的一致性问题

ZooKeeper 本身可以部署为一个集群,集群的各个节点之 间可以通过选举来产生一个 Leader选举遵循半数以上的原则,所以一般集群需要部署奇数个节点

ZooKeeper 最核心的功能是:它提供了一个分布式的存储系统,数据的组织方式类似于 UNIX 文件系统的树形结构。由于这是一个可以保证一致性的存储系统,所以你可以放心地 在你的应用集群中读写 ZooKeeper 的数据,而不用担心数据一致性的问题。分布式系统中 一些需要整个集群所有节点都访问的元数据,比如集群节点信息、公共配置信息等,特别适 合保存在 ZooKeeper 中。
在这个树形的存储结构中,每个节点被称为一个“ZNode”。
ZooKeeper 提供了一种特殊 的 ZNode 类型:临时节点。这种临时节点有一个特性:如果创建临时节点的客户端与 ZooKeeper 集群失去连接,这个临时节点就会自动消失。在 ZooKeeper 内部,它维护了 ZooKeeper 集群与所有客户端的心跳,通过判断心跳的状态,来确定是否需要删除客户端 创建的临时节点。

ZooKeeper 还提供了一种订阅 ZNode 状态变化的通知机制Watcher,一旦 ZNode 或 者它的子节点状态发生了变化,订阅的客户端会立即收到通知。
利用 ZooKeeper 临时节点Watcher 机制,我们很容易随时来获取业务集群中每个节点 的存活状态,并且可以监控业务集群的节点变化情况,当有节点上下线时,都可以收到来自 ZooKeeper 的通知。

此外,我们还可以用 ZooKeeper 来实现业务集群的快速选举、节点间的简单通信、分布式 锁等很多功能。

接下来看一下 Kafka 是如何来使用 ZooKeeper 的。

二、Kafka 在 ZooKeeper 中保存了哪些信息

首先我们来看一下 Kafka 在 ZooKeeper 都保存了哪些信息:

你可能在网上看到过和这个图类似的其他版本的图,这些图中绘制的 ZNode 比我们这张图 要多一些,这些图大都是描述的 0.8.x 的旧版本的情况,最新版本的 Kafka 已经将消费位置 管理等一些原本依赖 ZooKeeper 实现的功能,替换成了其他的实现方式。
图中圆角的矩形是临时节点直角矩形是持久化的节点

我们从左往右来看,左侧这棵树保存的是 Kafka 的 Broker 信息,/brokers/ids/[0...N], 每个临时节点对应着一个在线的 Broker,Broker 启动后会创建一个临时节点,代表Broker 已经加入集群可以提供服务了,节点名称就是 BrokerID,节点内保存了包括 Broker 的地址、版本号、启动时间等等一些 Broker 的基本信息。如果 Broker 宕机或者与 ZooKeeper 集群失联了,这个临时节点也会随之消失。
右侧部分的这棵树保存的就是主题和分区的信息。/brokers/topics/ 节点下面的每个子节 点都是一个主题,节点的名称就是主题名称。每个主题节点下面都包含一个固定的 partitions 节点,pattitions 节点的子节点就是主题下的所有分区,节点名称就是分区编 号。
每个分区节点下面是一个名为 state 的临时节点,节点中保存着分区当前的 leader 和所有 的 ISR 的 BrokerID。这个 state 临时节点是由这个分区当前的 Leader Broker 创建的。如 果这个分区的 Leader Broker 宕机了,对应的这个 state 临时节点也会消失,直到新的 Leader 被选举出来,再次创建 state 临时节点。

三、Kafka 客户端如何找到对应的 Broker

那 Kafka 客户端如何找到主题、队列对应的 Broker 呢?

其实,通过上面 ZooKeeper 中的 数据结构,你应该已经可以猜的八九不离十了。

是的,先根据主题和队列,在右边的树中找 到分区对应的 state 临时节点,我们刚刚说过,state 节点中保存了这个分区 Leader 的 BrokerID。拿到这个 Leader 的 BrokerID 后,再去左侧的树中,找到 BrokerID 对应的临 时节点,就可以获取到 Broker 真正的访问地址了。
在 Kafka Consumer 源码分析:消息消费的实现过程中,讲过,Kafka 的客户端并不会去直接连接 ZooKeeper,它只会和 Broker 进行远程通信,那我们可以合 理推测一下,ZooKeeper 上的元数据应该是通过 Broker 中转给每个客户端的
下面我们一起看一下 Kafka 的源代码,来验证一下我们的猜测是不是正确的。
在之前讲过,客户端真正与服务端发生网络传输是在 org.apache.kafka.clients.NetworkClient#poll 方法中实现的,我们一直跟踪这个调用链:

直到 maybeUpdate(long, Node) 这个方法,在这个方法里面,Kafka 构造了一个更新元数据的请求:

这段代码先构造了更新元数据的请求的构造器,然后调用 sendInternalMetadataRequest() 把这个请求放到待发送的队列中。

这里面有两个地方需要特别说明一下:

请求的具体内容封装在 org.apache.kafka.common.requests.MetadataRequest 这个对象中,它包含的信息很简单,只有一个主题的列表,来表明需要获取哪些主题的元数据,另外还有一个布尔类型的字段 allowAutoTopicCreation,表示是否允许自动创建主题

然后我们再来看下,在 Broker 中,Kafka 是怎么来处理这个更新元数据的请求的:
Broker 处理所有 RPC 请求的入口类kafka.server.KafkaApis#handle 这个方法里面, 我们找到对应处理更新元数据的方法 handleTopicMetadataRequest(RequestChannel.Request),这段代码是用 Scala 语言编 写的:



这段代码的主要逻辑是,先根据请求中的主题列表,去本地的元数据缓存 MetadataCache 中过滤出相应主题的元数据,也就是我们上面那张图中,右半部分的那棵树的子集,然后再 去本地元数据缓存中获取所有 Broker 的集合,也就是上图中左半部分那棵树,最后把这两 部分合在一起,作为响应返回给客户端。
Kafka 在每个 Broker 中都维护了一份和 ZooKeeper 中一样的元数据缓存,并不是每次客户端请求元数据就去读一次 ZooKeeper。由于 ZooKeeper 提供了 Watcher 这种监控机制,Kafka 可以感知到 ZooKeeper 中的元数据变化,从而及时更新 Broker 中的元数据缓存。
这样就完成了一次完整的更新元数据的流程。通过分析代码,可以证实,我们开始的猜测都是没有问题的。

总结:

以上,先简单的介绍了 ZooKeeper,它是一个分布式的协调服务,它的核心服务是一个 高可用、高可靠的一致性存储,在此基础上,提供了包括读写元数据节点监控选举节点间通信分布式锁等很多功能,这些功能可以极大方便我们快速开发一个分布式的集群系 统。

但是,ZooKeeper 也并不是完美的,在使用的时候你需要注意几个问题:

  1. 不要往 ZooKeeper 里面写入大量数据,它不是一个真正意义上的存储系统,只适合存 放少量的数据。依据服务器配置的不同,ZooKeeper 在写入超过几百 MB 数据之后, 性能和稳定性都会严重下降。
  2. 不要让业务集群的可用性依赖于 ZooKeeper 的可用性,什么意思呢?你的系统可以使 用 Zookeeper,但你要留一手,要考虑如果 Zookeeper 集群宕机了,你的业务集群最好还能提供服务。因为 ZooKeeper 的选举过程是比较慢的,而它对网络的抖动又比较 敏感,一旦触发选举,这段时间内的 ZooKeeper 是不能提供任何服务的。

Kafka 主要使用 ZooKeeper 来保存它的元数据监控 Broker 和分区的存活状态,并利用 ZooKeeper 来进行选举

Kafka 在 ZooKeeper 中保存的元数据,主要就是 Broker 的列表和主题分区信息两棵树。 这份元数据同时也被缓存到每一个 Broker 中。客户端并不直接和 ZooKeeper 来通信,而 是在需要的时候,通过 RPC 请求去 Broker 上拉取它关心的主题的元数据,然后保存到客 户端的元数据缓存中,以便支撑客户端生产和消费

可以看到,目前 Kafka 的这种设计,集群的可用性是严重依赖 ZooKeeper 的,也就是 说,如果 ZooKeeper 集群不能提供服务,那整个 Kafka 集群也就不能提供服务了,这其 实是一个不太好的设计。

如果你需要要部署大规模的 Kafka 集群,建议的方式是,拆分成多个互相独立的小集群部署,每个小集群都使用一组独立的 ZooKeeper 提供服务。这样,每个 ZooKeeper 中存储 的数据相对比较少,并且如果某个 ZooKeeper 集群故障,只会影响到一个小的 Kafka 集 群,故障的影响面相对小一些。
Kafka 的开发者也意识到了这个问题,目前正在讨论开发一个元数据服务来替代 ZooKeeper,感兴趣的可以看一下他们的Proposal

 

 

标签:Zookeeper,ZooKeeper,协调,Broker,Kafka,集群,kafka,节点,客户端
来源: https://blog.csdn.net/ScorpC/article/details/114262770