转自:http://www.blogjava.net/hello-yun/archive/2012/10/10/389289.html
MurmurHash算法:高运算性能,低碰撞率,由Austin Appleby创建于2008年,现已应用到Hadoop、libstdc++、nginx、libmemcached等开源系统。2011年Appleby被Google雇佣,随后Google推出其变种的CityHash算法。
一致性哈希算法是分布式系统中常用的算法。比如,一个分布式的存储系统,要将数据存储到具体的节点上,如果采用普通的hash方法,将数据映射到具体的节点上,如key%N,key是数据的key,N是机器节点数,如果有一个机器加入或退出这个集群,则所有的数据映射都无效了,如果是持久化存储则要做数据迁移,如果是分布式缓存,则其他缓存就失效了。
因此,引入了一致性哈希算法:
把数据用hash函数(如MD5),映射到一个很大的空间里,如图所示。数据的存储时,先得到一个hash值,对应到这个环中的每个位置,如k1对应到了图中所示的位置,然后沿顺时针找到一个机器节点B,将k1存储到B这个节点中。
如果B节点宕机了,则B上的数据就会落到C节点上,如下图所示:
这样,只会影响C节点,对其他的节点A,D的数据不会造成影响。然而,这又会造成一个“雪崩”的情况,即C节点由于承担了B节点的数据,所以C节点的负载会变高,C节点很容易也宕机,这样依次下去,这样造成整个集群都挂了。
为此,引入了“虚拟节点”的概念:即把想象在这个环上有很多“虚拟节点”,数据的存储是沿着环的顺时针方向找一个虚拟节点,每个虚拟节点都会关联到一个真实节点,如下图所使用:
图中的A1、A2、B1、B2、C1、C2、D1、D2都是虚拟节点,机器A负载存储A1、A2的数据,机器B负载存储B1、B2的数据,机器C负载存储C1、C2的数据。由于这些虚拟节点数量很多,均匀分布,因此不会造成“雪崩”现象。
- public class Shard<S> { // S类封装了机器节点的信息 ,如name、password、ip、port等
- private TreeMap<Long, S> nodes; // 虚拟节点
- private List<S> shards; // 真实机器节点
- private final int NODE_NUM = 100; // 每个机器节点关联的虚拟节点个数
- public Shard(List<S> shards) {
- super();
- this.shards = shards;
- init();
- }
- private void init() { // 初始化一致性hash环
- nodes = new TreeMap<Long, S>();
- for (int i = 0; i != shards.size(); ++i) { // 每个真实机器节点都需要关联虚拟节点
- final S shardInfo = shards.get(i);
- for (int n = 0; n < NODE_NUM; n++)
- // 一个真实机器节点关联NODE_NUM个虚拟节点
- nodes.put(hash("SHARD-" + i + "-NODE-" + n), shardInfo);
- }
- }
- public S getShardInfo(String key) {
- SortedMap<Long, S> tail = nodes.tailMap(hash(key)); // 沿环的顺时针找到一个虚拟节点
- if (tail.size() == 0) {
- return nodes.get(nodes.firstKey());
- }
- return tail.get(tail.firstKey()); // 返回该虚拟节点对应的真实机器节点的信息
- }
- /**
- * MurMurHash算法,是非加密HASH算法,性能很高,
- * 比传统的CRC32,MD5,SHA-1(这两个算法都是加密HASH算法,复杂度本身就很高,带来的性能上的损害也不可避免)
- * 等HASH算法要快很多,而且据说这个算法的碰撞率很低.
- * http://murmurhash.googlepages.com/
- */
- private Long hash(String key) {
- ByteBuffer buf = ByteBuffer.wrap(key.getBytes());
- int seed = 0x1234ABCD;
- ByteOrder byteOrder = buf.order();
- buf.order(ByteOrder.LITTLE_ENDIAN);
- long m = 0xc6a4a7935bd1e995L;
- int r = 47;
- long h = seed ^ (buf.remaining() * m);
- long k;
- while (buf.remaining() >= 8) {
- k = buf.getLong();
- k *= m;
- k ^= k >>> r;
- k *= m;
- h ^= k;
- h *= m;
- }
- if (buf.remaining() > 0) {
- ByteBuffer finish = ByteBuffer.allocate(8).order(
- ByteOrder.LITTLE_ENDIAN);
- // for big-endian version, do this first:
- // finish.position(8-buf.remaining());
- finish.put(buf).rewind();
- h ^= finish.getLong();
- h *= m;
- }
- h ^= h >>> r;
- h *= m;
- h ^= h >>> r;
- buf.order(byteOrder);
- return h;
- }
- }
相关推荐
MurmurHash算法由Austin Appleby创建于2008年,现已应用到Hadoop、libstdc 、nginx、libmemcached,Redis,Memcached,Cassandra,HBase,Lucene等开源系统。2011年Appleby被Google雇佣,随后Google推出其变种的...
** MurMurHash3 算法概述 ** MurMurHash3 是一种非加密哈希函数,由 Austin Appleby 开发,被广泛应用于数据结构和分布式系统中,如 Hadoop、Redis 和其他数据库系统。它的主要特点是计算速度快且哈希冲突的概率...
hadoop_spark_数据算法hadoop_spark_数据算法hadoop_spark_数据算法hadoop_spark_数据算法
此外,还可以考虑将其他并行计算框架(如Spark)与Hadoop结合使用,进一步提高聚类算法的性能。 总之,通过将Hadoop的MapReduce框架应用于聚类算法,我们不仅能够处理更大的数据集,还能够更高效地完成数据分析任务...
部署Hadoop3.0高性能集群,Hadoop完全分布式模式: Hadoop的守护进程分别运行在由多个主机搭建的集群上,不同 节点担任不同的角色,在实际工作应用开发中,通常使用该模式构建企业级Hadoop系统。 在Hadoop环境中,所有...
一个好的调度算法应该能够平衡作业的执行时间、资源利用率以及公平性等因素,从而最大化整个集群的吞吐量和响应速度。 #### 三、Hadoop集群的MapReduce计算架构 Hadoop的MapReduce计算架构包括两个核心组件:...
基于Linux构建Hadoop高性能服务器集群 本文档介绍了如何在Linux下构建高性能的Hadoop服务器集群,以满足大数据时代对高性能计算的需求。文章首先介绍了Hadoop框架的重要性,然后详细介绍了如何在Linux下搭建Hadoop...
在分布式计算领域,Hadoop作为一个开源的框架,用于处理和存储大规模数据,其调度算法是决定系统效率和公平性的重要组成部分。本篇文章将详细介绍Hadoop中的几种常见调度算法,包括FIFO(先进先出)、公平调度算法...
### 基于Hadoop的Apriori算法设计与实现 #### 一、背景与问题概述 随着信息技术的发展,海量数据的处理与...未来的研究可以进一步探索如何结合其他先进的大数据处理技术,如Spark等,来进一步提高Apriori算法的性能。
【集群Hadoop性能测试】是针对Hadoop分布式计算框架进行的一系列性能评估活动,目的是找出最佳配置以提升系统效率。测试方法主要通过shell自动化脚本来完成,包括生成配置文件、执行测试、记录时间以及恢复默认配置...
这个指标不仅考虑了节点的硬件配置,如CPU、内存等静态参数,还结合了节点在运行过程中的动态性能表现,如CPU利用率、内存使用率、磁盘I/O等。 基于此性能评价指标,作者对Fair Scheduler进行了优化,设计了一种新...
总结,Hadoop集群的高可用性和性能优化是一个持续的过程,需要综合考虑硬件配置、软件参数调整、任务调度策略等多个方面。理解并熟练应用上述知识点,有助于构建出一个强大、可靠的Hadoop大数据处理平台。
在实际应用中,Hadoop上的分类算法通常需要考虑数据倾斜(Data Skewness)问题,即数据分布不均匀可能导致某些节点处理的任务过于繁重,影响整体性能。此外,模型的评估和调优也是关键步骤,这包括交叉验证、特征...
- 从测试结果来看,Hadoop集群在数据读写和排序方面表现出色,但在大规模数据处理时,map和reduce任务的分配、执行时间以及资源利用率等方面可能需要进一步优化,以提升整体性能。 - 考虑到硬件配置和软件版本,...
论文中,作者蒋鑫对比了MPI和Hadoop在执行K-means算法时的性能,实验环境为CentOS6.5,使用了Hadoop-2.6和openmpi-1.8.4版本。通过生成的随机数据进行实验,结果显示在地质学模拟中的复杂迭代计算,MPI相比Hadoop...