zookeeper-3.4.6/docs/recipes.html
Leader Election
A simple way of doing leader election with ZooKeeper is to use the SEQUENCE|EPHEMERAL flags when creating znodes that represent "proposals" of clients. The idea is to have a znode, say "/election", such that each znode creates a child znode "/election/n_" with both flags SEQUENCE|EPHEMERAL. With the sequence flag, ZooKeeper automatically appends a sequence number that is greater that any one previously appended to a child of "/election". The process that created the znode with the smallest appended sequence number is the leader.
That's not all, though. It is important to watch for failures of the leader, so that a new client arises as the new leader in the case the current leader fails. A trivial solution is to have all application processes watching upon the current smallest znode, and checking if they are the new leader when the smallest znode goes away (note that the smallest znode will go away if the leader fails because the node is ephemeral). But this causes a herd effect: upon of failure of the current leader, all other processes receive a notification, and execute getChildren on "/election" to obtain the current list of children of "/election". If the number of clients is large, it causes a spike on the number of operations that ZooKeeper servers have to process. To avoid the herd effect, it is sufficient to watch for the next znode down on the sequence of znodes. If a client receives a notification that the znode it is watching is gone, then it becomes the new leader in the case that there is no smaller znode. Note that this avoids the herd effect by not having all clients watching the same znode.
Here's the pseudo code:
Let ELECTION be a path of choice of the application. To volunteer to be a leader:
-
Create znode z with path "ELECTION/n_" with both SEQUENCE and EPHEMERAL flags;
-
Let C be the children of "ELECTION", and i be the sequence number of z;
-
Watch for changes on "ELECTION/n_j", where j is the largest sequence number such that j < i and n_j is a znode in C;
Upon receiving a notification of znode deletion:
-
Let C be the new set of children of ELECTION;
-
If z is the smallest node in C, then execute leader procedure;
-
Otherwise, watch for changes on "ELECTION/n_j", where j is the largest sequence number such that j < i and n_j is a znode in C;
Note that the znode having no preceding znode on the list of children does not imply that the creator of this znode is aware that it is the current leader. Applications may consider creating a separate znode to acknowledge that the leader has executed the leader procedure.
---------------------------------------------------------------------------------------------------------
上述的实现是有原java版本的。这个实现和我直观的想法不太一样,考虑得比较全面(特别是很多人频繁竞选时的惊群效应)
一个基于ZooKeeper的 简单的leader选举办法是使用 SEQUENCE|EPHEMERAL标志创建znode,用它来标记客户端候选人.思路是:
有一个znode如"/election",每一个znode创建带SEQUENCE|EPHEMERAL标志的子znode "/election/n_".因为使用SEQUENCE标志,ZooKeeper自增znode的序号,每次追加在"/election"最大子节点后面,即比前面任何请求的序号都大,哪些创建具有最小序号的znode的进程即为leader。
尽管如此,但不全然这么简单,监控leader节点失败是非常重要的。因此,当当前Leader失效,一个连接的客户端成为新Leader。一个简易的解决方案是所有进程都去监控当前最小的znode,并检查它,当前最小znode被删除时,自己是否是新Leader。(当leader失效时,由于EPHEMERAL特性,其相应的znode会被删除)。但这会产生一个"惊群"现象(参见早起Linux的epoll惊群):当当前leader失效,其他所有的进程都被唤醒,并且在"/election"节点上执行getChildren来获得"/elcection"当前子节点列表.如果连接的客户端很多,ZooKeeper Server将较耗时。为了避免"惊群",是监控集群中比自己的小的最大的znode。(举例:
1,2,3,4,5;当前节点znode=4,那么4应该监控的是节点3,而不是最小节点1),这样就被避免了所有进程都监控最小节点。
伪代码如下:
设ELECTION 是应用选定的路径,所有候选人要竞选Leader:
- 创建zonde z ,其对应路径为 "ELECTION/n_" 创建标志(临时EPHEMERAL 、有序SEQUENCE ) ,
- 设置C为"ELECTION"的子节点,而i为节点z(第一步创建节点成功时,会返回序号)
- 在节点"ELECTION/n_j"上设置监控,且j满足j= MAX({k|k<i,n_k ∈C}),即j是比i小但最接近i的节点,如果不存在这样的节点,那么当前节点i就是leader了
- 设C是最新的 "ELECTION"子节点集合
- 如果z是最小节点,那么z是leader,执行相应逻辑
- 否则,监控 "ELECTION/n_j"变化,同上 j= MAX({k|k<i,n_k ∈C})
相关推荐
### ZooKeeper Recipes and Solutions #### 概述 ZooKeeper 是一种分布式协调服务,用于解决分布式应用程序中的常见问题。本文档提供了使用 ZooKeeper 实现高级功能的指导原则和最佳实践,例如名称服务、配置管理...
2. `curator-recipes-2.8.0.jar`:这个库包含了Curator的各种高级功能或“食谱”,如锁机制(共享锁、独占锁)、队列(等待队列、分配队列)、Leader选举、分布式计数器等。这些食谱使得实现分布式一致性策略变得...
Curator提供了一系列预定义的“Recipes”,这些是现成的解决方案,用于解决常见的分布式问题,如 Leader选举、分布式锁、队列和缓存等。 5. **缓存机制**: Curator包含数据缓存功能,可以缓存ZooKeeper节点的...
5. ** curator-recipes**:Curator是Facebook开源的一套Zookeeper客户端工具集,包含了多种高级的Zookeeper使用模式,如Leader选举、分布式锁等。对应的jar包有`curator-recipe-x.x.x.jar`。 6. ** Zookeeper服务器...
Curator提供了一系列高级配方,如分布式计数器、队列、 Leader选举、分布式命名服务等,这些配方可以帮助开发者快速构建分布式应用。 6. **重试策略**: 当ZooKeeper操作失败时,Curator可以配置不同的重试策略,...
- **封装常用功能**:Curator提供了一系列的API,用于实现诸如Leader选举、分布式锁、分布式计数器等功能,这大大减轻了开发者的工作量。 - **会话管理**:Curator内部实现了会话的自动重连机制,当ZooKeeper会话...
ZooKeeper 是一个分布式的,开放源码的协调服务,用于分布式应用程序,提供命名服务、配置管理、集群同步和领导选举等功能。 在 Curator 5.6.0 版本中,我们重点关注以下几个关键知识点: 1. **安装与引入**:首先...
- **选举算法**:如 Leader 选举,常用于分布式系统中确定主节点。 - **组服务**:通过临时节点实现动态成员管理。 4. **Gozk-recipes 项目中的示例**: - 可能包含各种 ZooKeeper 操作的示例代码,如创建、读取...
1. ** Leader选举**:在分布式系统中,有时需要选举一个节点作为领导者来执行特定任务。Curator的Leader选举食谱提供了这样的机制,确保在任何时刻只有一个节点成为领导者。 2. **分布式锁**:在多节点环境中,同步...
1. **Leader选举**:展示如何使用 Curator 的 Leader选举机制,确保在分布式环境中只有一个节点作为领导者。 2. **分布式锁**:演示如何实现分布式锁,防止多个节点同时执行相同操作。 3. **配方(Recipes)**:...
- ** recipes**:预定义的高级功能集合,如 Leader选举、分布式锁、队列、缓存等。 3. **Curator recipes**: - **Leader Election**:确保集群中只有一个节点作为领导者,其他节点成为追随者。 - **Distributed...
- Curator提供了一些预定义的模式,如Leader选举、分布式计数器、队列和锁等,简化了常见的分布式编程问题。 6. **Curator Recipes** - `Leader Election`:实现分布式环境中的领导者选举。 - `Locks`:提供...
- ** Recipes**:预定义的一系列模式,如Leader选举、分布式计数器等。 4. **Java-Zookeeper的使用** - **创建Znode**:通过`create()`方法创建节点,可以设置节点的权限和是否持久化。 - **读取Znode**:使用`...
4. **配方(Recipes)**:Curator提供了一系列的“配方”,如Leader选举、分布式计数器、队列、分布式事件等,这些都是基于Zookeeper构建的高级功能,简化了开发工作。 5. **缓存**:Curator有内置的数据缓存机制,...
2. **Recipes**:Curator 包含一系列预定义的“食谱”(Recipes),这些是常见的分布式协调任务的实现,如分布式锁、队列、领导选举等。这些食谱大大降低了开发复杂分布式系统的难度。 - **Distributed Lock**:...
比如:集群管理(Leader选举)、共享锁、队列、Counter等等。可以总结Curator主要解决以下三类问题: 封装ZK Client与Server之间的连接处理; 提供了一套Fluent风格的操作API; 提供ZK各种应用场景的抽象封装...