`
fwuwen
  • 浏览: 16260 次
  • 来自: 厦门
文章分类
社区版块
存档分类
最新评论

SolrCloud的DistributedQueue分析

 
阅读更多

      SolrCloud中采用了DistributedQueue来同步节点间的状态信息。SolrCloud中总共会在3个地方保存队列信息:

  /overseer/queue:保存每个shard的配置信息,以及状态信息(recovering,recovery_failed,active,down,sync)

  对应的生产者为:ZKController中的overseerJobQueue

  消费者:Overseer.ClusterStateUpdater中的stateUpdateQueue;

  /overseer/queue-work:正在处理中的消息,首先shard中信息会先保存到/overseer/queue下面,进行处理时会移到/overseer/queue-work中,处理完后消息之后在从/overseer/queue-work中删除

  生产者:stateUpdateQueue

  消费者:Overseer.ClusterStateUpdater中的workQueue

  /overseer/collection-queue-work:只有在create,delete,reload collection时候才会触发到此队列,只是保存相应的collection操作信息。待collection操作成功之后,还会涉及到/overseer/queue和/overseer/queue-work之中

  生产者:ZKController中的overseerCollectionQueue

  消费者:OverseerCollectionProcessor中的workQueue

  DistributedQueue源码:

package org.apache.solr.cloud;
 
 import java.util.List;
 import java.util.NoSuchElementException;
 import java.util.TreeMap;
 import java.util.concurrent.CountDownLatch;
 
 import org.apache.solr.common.cloud.SolrZkClient;
 import org.apache.zookeeper.CreateMode;
 import org.apache.zookeeper.KeeperException;
 import org.apache.zookeeper.WatchedEvent;
 import org.apache.zookeeper.Watcher;
 import org.apache.zookeeper.ZooDefs;
 import org.apache.zookeeper.data.ACL;
 import org.slf4j.Logger;
 import org.slf4j.LoggerFactory;
 
 /**
  * zookeeper可以通过Sequence Nodes来实现分布式队列
  * 采用sequential在client在申请创建该节点时,zk会自动在节点路径末尾添加递增序号,
  */
 public class DistributedQueue {
     
   private static final Logger LOG = LoggerFactory.getLogger(DistributedQueue.class);
   
   private final String dir;    //队列的上层访问路径
   
   private SolrZkClient zookeeper;
   
   private List<ACL> acl = ZooDefs.Ids.OPEN_ACL_UNSAFE;    // 访问控制列表,这里是一个完全打开的ACL,允许任何客户端对znode进行读写
   
   private final String prefix = "qn-";    // 节点的名称前缀
   
   public DistributedQueue(SolrZkClient zookeeper, String dir, List<ACL> acl) {
     this.dir = dir;
     
     if (acl != null) {
       this.acl = acl;
     }
     this.zookeeper = zookeeper;
     
   }
   
   /**
    * 对序列号进行排序,实现分布式队列的关键,保证了消息的有序性
    */
   private TreeMap<Long,String> orderedChildren(Watcher watcher)
       throws KeeperException, InterruptedException {
     TreeMap<Long,String> orderedChildren = new TreeMap<Long,String>();
     
     List<String> childNames = null;
     try {
       childNames = zookeeper.getChildren(dir, watcher, true);    // 节点名称
     } catch (KeeperException.NoNodeException e) {
       throw e;
     }
     
     for (String childName : childNames) {
       try {
         if (!childName.regionMatches(0, prefix, 0, prefix.length())) {
           LOG.warn("Found child node with improper name: " + childName);
           continue;
         }
         String suffix = childName.substring(prefix.length());
         Long childId = new Long(suffix);        // 递增的序列号
         orderedChildren.put(childId, childName);
       } catch (NumberFormatException e) {
         LOG.warn("Found child node with improper format : " + childName + " "
             + e, e);
       }
     }
     
     return orderedChildren;
   }
   
   /**
    * 返回队首元素
    */
   public byte[] element() throws NoSuchElementException, KeeperException,
       InterruptedException {
     TreeMap<Long,String> orderedChildren;
     
     while (true) {
       try {
         orderedChildren = orderedChildren(null);
       } catch (KeeperException.NoNodeException e) {
         throw new NoSuchElementException();
       }
       if (orderedChildren.size() == 0) throw new NoSuchElementException();
       
       for (String headNode : orderedChildren.values()) {
         if (headNode != null) {
           try {
             return zookeeper.getData(dir + "/" + headNode, null, null, true);
           } catch (KeeperException.NoNodeException e) {
             // Another client removed the node first, try next
           }
         }
       }
     }
   }
   
   /**
    * 删除队首元素
    */
   public byte[] remove() throws NoSuchElementException, KeeperException,
       InterruptedException {
     TreeMap<Long,String> orderedChildren;
     // Same as for element. Should refactor this.
     while (true) {
       try {
         orderedChildren = orderedChildren(null);
       } catch (KeeperException.NoNodeException e) {
         throw new NoSuchElementException();
       }
       if (orderedChildren.size() == 0) throw new NoSuchElementException();
       
       for (String headNode : orderedChildren.values()) {
         String path = dir + "/" + headNode;
         try {
           byte[] data = zookeeper.getData(path, null, null, true);
           zookeeper.delete(path, -1, true);
           return data;
         } catch (KeeperException.NoNodeException e) {
           // Another client deleted the node first.
         }
       }
       
     }
   }
   
   /**
    * zk的watch机制,没什么特别只是添加了个日志的debug
    */
   private class LatchChildWatcher implements Watcher {
     
     CountDownLatch latch;
     
     public LatchChildWatcher() {
       latch = new CountDownLatch(1);
     }
     
     public void process(WatchedEvent event) {
       LOG.debug("Watcher fired on path: " + event.getPath() + " state: "
           + event.getState() + " type " + event.getType());
       latch.countDown();
     }
     
     public void await() throws InterruptedException {
       latch.await();
     }
   }
   
   /**
    * 出队操作
    */
   public byte[] take() throws KeeperException, InterruptedException {
     TreeMap<Long,String> orderedChildren;
     // Same as for element. Should refactor this.
     while (true) {
       LatchChildWatcher childWatcher = new LatchChildWatcher();
       try {
         orderedChildren = orderedChildren(childWatcher);
       } catch (KeeperException.NoNodeException e) {
         zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
         continue;
       }
       if (orderedChildren.size() == 0) {    //  如果orderedChildren为0的话,则等待 
         childWatcher.await();
         continue;
       }
       
       /**
        * 对于失败的delete操作,client转向处理下一个node
        */
       for (String headNode : orderedChildren.values()) {
         String path = dir + "/" + headNode;
         try {
           byte[] data = zookeeper.getData(path, null, null, true);
           zookeeper.delete(path, -1, true);
           return data;
         } catch (KeeperException.NoNodeException e) {    // 这个删除操作有可能失败,因为可能有其他的消费者已经成功的获取该znode
           // Another client deleted the node first.
         }
       }
       
       // 如果最后还没有成功的delete一个item,则在重新orderedChildren()
     }
   }
   
   /**
    * 入队操作 
    * 不需要任何的锁来保证client对同一个znode的操作有序性。由zk负责按顺序分配序列号
    */
   public boolean offer(byte[] data) throws KeeperException,
       InterruptedException {
     for (;;) {
       try {
         zookeeper.create(dir + "/" + prefix, data, acl, CreateMode.PERSISTENT_SEQUENTIAL, true);
         return true;
       } catch (KeeperException.NoNodeException e) {
         try {
           zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
         } catch (KeeperException.NodeExistsException ne) {
         //someone created it
         }
       }
     }
 
     
     
   }
   
   /**
    * 返回队首信息,如果队列为空,则返回null
    */
   public byte[] peek() throws KeeperException, InterruptedException {
     try {
       return element();
     } catch (NoSuchElementException e) {
       return null;
     }
   }
   
   /**
    * block为true的时候,如果队列为空,则会一直阻塞,直到有数据返回
    */
   public byte[] peek(boolean block) throws KeeperException, InterruptedException {
     if (!block) {
       return peek();
     }
     
     TreeMap<Long,String> orderedChildren;
     while (true) {
       LatchChildWatcher childWatcher = new LatchChildWatcher();
       try {
         orderedChildren = orderedChildren(childWatcher);
       } catch (KeeperException.NoNodeException e) {
         zookeeper.create(dir, new byte[0], acl, CreateMode.PERSISTENT, true);
         continue;
       }
       if (orderedChildren.size() == 0) {
         childWatcher.await();
         continue;
       }
       
       for (String headNode : orderedChildren.values()) {
         String path = dir + "/" + headNode;
         try {
           byte[] data = zookeeper.getData(path, null, null, true);
           return data;
         } catch (KeeperException.NoNodeException e) {
           // Another client deleted the node first.
         }
       }
     }
   }
   
   /**
    * 删除队首,如果队列为空,则返回null
    */
   public byte[] poll() throws KeeperException, InterruptedException {
     try {
       return remove();
     } catch (NoSuchElementException e) {
       return null;
     }
   }
   
   public static void main(String[] args) throws KeeperException, InterruptedException {
       SolrZkClient client = new SolrZkClient("localhost", 5*1000);
       DistributedQueue queue = new DistributedQueue(client, "/overseer/queue", null);
       queue.offer("test".getBytes());
       System.out.println(new String(queue.take()));
 }
 }
 

 

分享到:
评论

相关推荐

    solrcloud windows 环境搭建

    ### SolrCloud Windows环境下搭建详解 #### SolrCloud概述 SolrCloud是Apache Solr提供的一种分布式搜索解决方案,尤其适用于需要大规模容错、分布式索引和检索能力的应用场景。当索引数量较少时,通常无需启用...

    SolrCloud应用

    SolrCloud是Apache Lucene项目下的一个分布式搜索和分析服务,它是Apache Solr的一个扩展,设计用于处理大数据和高可用性场景。SolrCloud模式引入了Zookeeper作为集群协调者,实现了分布式索引、搜索以及配置管理。...

    solrcloud.rar

    在实际应用中,SolrCloud提供了强大的搜索和分析能力,适用于大型、高并发的搜索引擎场景。例如,电子商务网站可以利用SolrCloud快速检索商品信息,新闻门户可以利用它对海量新闻内容进行实时索引和搜索,企业内部也...

    SolrCloud集群搭建和使用步骤

    总之,SolrCloud结合ZooKeeper为大规模的全文搜索和数据分析提供了强大的分布式解决方案,通过精心的集群规划、配置管理和运维监控,可以构建出高可用、高性能的搜索引擎系统。在实际应用中,需要根据业务需求和环境...

    solrcloud高可用集群搭建

    ### SolrCloud 高可用集群搭建详解 #### 一、环境准备 为了构建一个SolrCloud高可用集群,首先需要准备好必要的软硬件环境。这里提到的环境包括操作系统、JDK、Zookeeper集群以及Solr集群。 **操作系统选择:** -...

    solrcloud6安装配置

    SolrCloud是Apache Solr的一种分布式部署模式,它利用Zookeeper进行集群管理和配置同步,提供高可用性和数据的水平扩展。在本篇中,我们将详细探讨如何安装配置SolrCloud 6。 首先,我们需要下载Solr 6.6.0的安装包...

    SolrCloud文档

    ### 实战案例分析 假设我们需要为一个电商平台构建一个支持高并发搜索请求的系统,我们可以按照以下步骤来设计SolrCloud集群: 1. **规划Collection**:根据商品类别创建多个Collection,如“Electronics”、...

    SolrCloud集群部署

    SolrCloud集群部署详解 SolrCloud是Apache Solr的一项重要特性,为大规模、高容错性和分布式索引与检索提供了强大的解决方案。当面临大量索引数据和高并发搜索请求时,采用SolrCloud能够有效地应对挑战。它基于Solr...

    solrcloud5结合zookeeper应用视频教程

    solrcloud5结合zookeeper搭建、使用详解,是一部难得的好教程

    solrCloud5.2.1 + tomcat7 + zookeeper3.4.6

    【SolrCloud5.2.1 + Tomcat7 + Zookeeper3.4.6 集成详解】 在Windows 7环境下搭建SolrCloud5.2.1、Tomcat7和Zookeeper3.4.6的集成环境是进行分布式搜索和索引管理的重要步骤。下面将详细介绍整个配置过程。 1. **...

    Tomcat+solrcloud6.2整合Web项目

    《Tomcat+SolrCloud6.2整合Web项目详解》 在现代的互联网环境中,高效、精准的全文搜索引擎已经成为各种Web应用不可或缺的一部分。Solr,作为Apache Lucene的一个子项目,以其强大的搜索功能和易扩展性深受开发者...

    centos搭建solrcloud集群

    centos下搭建好solrcloud集群,可以直接使用!!!!!!

    solrCloud的集群部署

    ### SolrCloud 集群部署相关知识点 #### 一、SolrCloud基本概念与架构 **1.1 SolrCloud的关键概念** - **Core**:在传统的Solr单机环境中,Core通常指的是一个单独的索引。但在SolrCloud环境中,一个索引可能由多...

    SolrCloud集群架构图

    一个简单的关于Solr集群部署的,SolrCloud集群架构图

    Tomcat上部署SolrCloud.txt

    ### Tomcat上部署SolrCloud知识点详解 #### 一、SolrCloud与Tomcat简介 - **SolrCloud**:Apache Solr的一个分布式部署模式,主要用于处理大规模数据搜索和索引场景。它提供了高可用性和容错性,适用于生产环境中...

    SolrCloud集群搭建教程

    SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时...

    在远程Linux服务器搭建SolrCloud

    为三台远程Linux服务器搭建SolrCloud 本次目的是在tomcat以及zookeeper的基础上,搭建三台远程服务器的SolrCloud 工具:WinSCP,SecureCRT,apache-tomcat-7.0.62,solr-4.10.4,zookeeper-3.4.6 WARNING: 版本注意 ...

Global site tag (gtag.js) - Google Analytics