SolrCloud中采用了DistributedQueue来同步节点间的状态信息。SolrCloud中总共会在3个地方保存队列信息:
/overseer/queue:保存每个shard的配置信息,以及状态信息(recovering,recovery_failed,active,down,sync)
对应的生产者为:ZKController中的overseerJobQueue
消费者:Overseer.ClusterStateUpdater中的stateUpdateQueue;
/overseer/queue-work:正在处理中的消息,首先shard中信息会先保存到/overseer/queue下面,进行处理时会移到/overseer/queue-work中,处理完后消息之后在从/overseer/queue-work中删除
生产者:stateUpdateQueue
消费者:Overseer.ClusterStateUpdater中的workQueue
/overseer/collection-queue-work:只有在create,delete,reload collection时候才会触发到此队列,只是保存相应的collection操作信息。待collection操作成功之后,还会涉及到/overseer/queue和/overseer/queue-work之中
生产者:ZKController中的overseerCollectionQueue
消费者:OverseerCollectionProcessor中的workQueue
DistributedQueue源码:
package org.apache.solr.cloud;
import java.util.List;
import java.util.NoSuchElementException;
import java.util.TreeMap;
import java.util.concurrent.CountDownLatch;
import org.apache.solr.common.cloud.SolrZkClient;
import org.apache.zookeeper.CreateMode;
import org.apache.zookeeper.KeeperException;
import org.apache.zookeeper.WatchedEvent;
import org.apache.zookeeper.Watcher;
import org.apache.zookeeper.ZooDefs;
import org.apache.zookeeper.data.ACL;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
/**
* zookeeper可以通过Sequence Nodes来实现分布式队列
* 采用sequential在client在申请创建该节点时,zk会自动在节点路径末尾添加递增序号,
*/
public class DistributedQueue {
private static final Logger LOG = LoggerFactory.getLogger(DistributedQueue.class);
private final String dir; //队列的上层访问路径
private SolrZkClient zookeeper;
private List<ACL> acl = ZooDefs.Ids.OPEN_ACL_UNSAFE; // 访问控制列表,这里是一个完全打开的ACL,允许任何客户端对znode进行读写
private final String prefix = "qn-"; // 节点的名称前缀
public DistributedQueue(SolrZkClient zookeeper, String dir, List<ACL> acl) {
this.dir = dir;
if (acl != null) {
this.acl = acl;
}
this.zookeeper = zookeeper;
}
/**
* 对序列号进行排序,实现分布式队列的关键,保证了消息的有序性
*/
private TreeMap<Long,String> orderedChildren(Watcher watcher)
throws KeeperException, InterruptedException {
TreeMap<Long,String> orderedChildren = new TreeMap<Long,String>();
List<String> childNames = null;
try {
childNames = zookeeper.getChildren(dir, watcher, true); // 节点名称
} catch (KeeperException.NoNodeException e) {
throw e;
}
for (String childName : childNames) {
try {
if (!childName.regionMatches(0, prefix, 0, prefix.length())) {
LOG.warn("Found child node with improper name: " + childName);
continue;
}
String suffix = childName.substring(prefix.length());
Long childId = new Long(suffix); // 递增的序列号
orderedChildren.put(childId, childName);
} catch (NumberFormatException e) {
LOG.warn("Found child node with improper format : " + childName + " "
+ e, e);
}
}
return orderedChildren;
}
/**
* 返回队首元素
*/
public byte[] element() throws NoSuchElementException, KeeperException,
InterruptedException {
TreeMap<Long,String> orderedChildren;
while (true) {
try {
orderedChildren = orderedChildren(null);
} catch (KeeperException.NoNodeException e) {
throw new NoSuchElementException();
}
if (orderedChildren.size() == 0) throw new NoSuchElementException();
for (String headNode : orderedChildren.values()) {
if (headNode != null) {
try {
return zookeeper.getData(dir + "/" + headNode, null, null, true);
} catch (KeeperException.NoNodeException e) {
// Another client removed the node first, try next
}
}
}
}
}
/**
* 删除队首元素
*/
public byte[] remove() throws NoSuchElementException, KeeperException,
InterruptedException {
TreeMap<Long,String> orderedChildren;
// Same as for element. Should refactor this.
while (true) {
try {
orderedChildren = orderedChildren(null);
} catch (KeeperException.NoNodeException e) {
throw new NoSuchElementException();
}
if (orderedChildren.size() == 0) throw new NoSuchElementException();
for (String headNode : orderedChildren.values()) {
String path = dir + "/" + headNode;
try {
byte[] data = zookeeper.getData(path, null, null, true);
zookeeper.delete(path, -1, true);
return data;
} catch (KeeperException.NoNodeException e) {
// Another client deleted the node first.
}
}
}
}
/**
* zk的watch机制,没什么特别只是添加了个日志的debug
*/
private class LatchChildWatcher implements Watcher {
CountDownLatch latch;
public LatchChildWatcher() {
latch = new CountDownLatch(1);
}
public void process(WatchedEvent event) {
LOG.debug("Watcher fired on path: " + event.getPath() + " state: "
+ event.getState() + " type " + event.getType());
latch.countDown();
}
public void await() throws InterruptedException {
latch.await();
}
}
/**
* 出队操作
*/
public byte[] take() throws KeeperException, InterruptedException {
TreeMap<Long,String> orderedChildren;
// Same as for element. Should refactor this.
while (true) {
LatchChildWatcher childWatcher = new LatchChildWatcher();
try {
orderedChildren = orderedChildren(childWatcher);
} catch (KeeperException.NoNodeException e) {
zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
continue;
}
if (orderedChildren.size() == 0) { // 如果orderedChildren为0的话,则等待
childWatcher.await();
continue;
}
/**
* 对于失败的delete操作,client转向处理下一个node
*/
for (String headNode : orderedChildren.values()) {
String path = dir + "/" + headNode;
try {
byte[] data = zookeeper.getData(path, null, null, true);
zookeeper.delete(path, -1, true);
return data;
} catch (KeeperException.NoNodeException e) { // 这个删除操作有可能失败,因为可能有其他的消费者已经成功的获取该znode
// Another client deleted the node first.
}
}
// 如果最后还没有成功的delete一个item,则在重新orderedChildren()
}
}
/**
* 入队操作
* 不需要任何的锁来保证client对同一个znode的操作有序性。由zk负责按顺序分配序列号
*/
public boolean offer(byte[] data) throws KeeperException,
InterruptedException {
for (;;) {
try {
zookeeper.create(dir + "/" + prefix, data, acl, CreateMode.PERSISTENT_SEQUENTIAL, true);
return true;
} catch (KeeperException.NoNodeException e) {
try {
zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
} catch (KeeperException.NodeExistsException ne) {
//someone created it
}
}
}
}
/**
* 返回队首信息,如果队列为空,则返回null
*/
public byte[] peek() throws KeeperException, InterruptedException {
try {
return element();
} catch (NoSuchElementException e) {
return null;
}
}
/**
* block为true的时候,如果队列为空,则会一直阻塞,直到有数据返回
*/
public byte[] peek(boolean block) throws KeeperException, InterruptedException {
if (!block) {
return peek();
}
TreeMap<Long,String> orderedChildren;
while (true) {
LatchChildWatcher childWatcher = new LatchChildWatcher();
try {
orderedChildren = orderedChildren(childWatcher);
} catch (KeeperException.NoNodeException e) {
zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
continue;
}
if (orderedChildren.size() == 0) {
childWatcher.await();
continue;
}
for (String headNode : orderedChildren.values()) {
String path = dir + "/" + headNode;
try {
byte[] data = zookeeper.getData(path, null, null, true);
return data;
} catch (KeeperException.NoNodeException e) {
// Another client deleted the node first.
}
}
}
}
/**
* 删除队首,如果队列为空,则返回null
*/
public byte[] poll() throws KeeperException, InterruptedException {
try {
return remove();
} catch (NoSuchElementException e) {
return null;
}
}
public static void main(String[] args) throws KeeperException, InterruptedException {
SolrZkClient client = new SolrZkClient("localhost", 5*1000);
DistributedQueue queue = new DistributedQueue(client, "/overseer/queue", null);
queue.offer("test".getBytes());
System.out.println(new String(queue.take()));
}
}
分享到:
相关推荐
### SolrCloud Windows环境下搭建详解 #### SolrCloud概述 SolrCloud是Apache Solr提供的一种分布式搜索解决方案,尤其适用于需要大规模容错、分布式索引和检索能力的应用场景。当索引数量较少时,通常无需启用...
SolrCloud是Apache Lucene项目下的一个分布式搜索和分析服务,它是Apache Solr的一个扩展,设计用于处理大数据和高可用性场景。SolrCloud模式引入了Zookeeper作为集群协调者,实现了分布式索引、搜索以及配置管理。...
在实际应用中,SolrCloud提供了强大的搜索和分析能力,适用于大型、高并发的搜索引擎场景。例如,电子商务网站可以利用SolrCloud快速检索商品信息,新闻门户可以利用它对海量新闻内容进行实时索引和搜索,企业内部也...
总之,SolrCloud结合ZooKeeper为大规模的全文搜索和数据分析提供了强大的分布式解决方案,通过精心的集群规划、配置管理和运维监控,可以构建出高可用、高性能的搜索引擎系统。在实际应用中,需要根据业务需求和环境...
### SolrCloud 高可用集群搭建详解 #### 一、环境准备 为了构建一个SolrCloud高可用集群,首先需要准备好必要的软硬件环境。这里提到的环境包括操作系统、JDK、Zookeeper集群以及Solr集群。 **操作系统选择:** -...
SolrCloud是Apache Solr的一种分布式部署模式,它利用Zookeeper进行集群管理和配置同步,提供高可用性和数据的水平扩展。在本篇中,我们将详细探讨如何安装配置SolrCloud 6。 首先,我们需要下载Solr 6.6.0的安装包...
### 实战案例分析 假设我们需要为一个电商平台构建一个支持高并发搜索请求的系统,我们可以按照以下步骤来设计SolrCloud集群: 1. **规划Collection**:根据商品类别创建多个Collection,如“Electronics”、...
SolrCloud集群部署详解 SolrCloud是Apache Solr的一项重要特性,为大规模、高容错性和分布式索引与检索提供了强大的解决方案。当面临大量索引数据和高并发搜索请求时,采用SolrCloud能够有效地应对挑战。它基于Solr...
solrcloud5结合zookeeper搭建、使用详解,是一部难得的好教程
【SolrCloud5.2.1 + Tomcat7 + Zookeeper3.4.6 集成详解】 在Windows 7环境下搭建SolrCloud5.2.1、Tomcat7和Zookeeper3.4.6的集成环境是进行分布式搜索和索引管理的重要步骤。下面将详细介绍整个配置过程。 1. **...
《Tomcat+SolrCloud6.2整合Web项目详解》 在现代的互联网环境中,高效、精准的全文搜索引擎已经成为各种Web应用不可或缺的一部分。Solr,作为Apache Lucene的一个子项目,以其强大的搜索功能和易扩展性深受开发者...
centos下搭建好solrcloud集群,可以直接使用!!!!!!
### SolrCloud 集群部署相关知识点 #### 一、SolrCloud基本概念与架构 **1.1 SolrCloud的关键概念** - **Core**:在传统的Solr单机环境中,Core通常指的是一个单独的索引。但在SolrCloud环境中,一个索引可能由多...
一个简单的关于Solr集群部署的,SolrCloud集群架构图
### Tomcat上部署SolrCloud知识点详解 #### 一、SolrCloud与Tomcat简介 - **SolrCloud**:Apache Solr的一个分布式部署模式,主要用于处理大规模数据搜索和索引场景。它提供了高可用性和容错性,适用于生产环境中...
SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时...
为三台远程Linux服务器搭建SolrCloud 本次目的是在tomcat以及zookeeper的基础上,搭建三台远程服务器的SolrCloud 工具:WinSCP,SecureCRT,apache-tomcat-7.0.62,solr-4.10.4,zookeeper-3.4.6 WARNING: 版本注意 ...