`
hugh.wangp
  • 浏览: 292673 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

【转】Hadoop 中的两表join

    博客分类:
  • HIVE
阅读更多

原文见:http://www.gemini5201314.net/hadoop/hadoop-%E4%B8%AD%E7%9A%84%E4%B8%A4%E8%A1%A8join.html

 

作为数据分析中经常进行的join 操作,传统DBMS 数据库已经将各种算法优化到了极致,而对于hadoop 使用的mapreduce 所进行的join 操作,去年开始也是有各种不同的算法论文出现,讨论各种算法的适用场景和取舍条件,本文讨论hive 中出现的几种join 优化,然后讨论其他算法实现,希望能给使用hadoop 做数据分析的开发人员提供一点帮助.

 

Facebook 今年在yahoo 的hadoop summit 大会上做了一个关于最近两个版本的hive 上所做的一些join 的优化,其中主要涉及到hive 的几个关键特性: 值分区 , hash 分区 , map join , index ,

 

Common Join

最为普通的join策略,不受数据量的大小影响,也可以叫做reduce side join ,最没效率的一种join 方式. 它由一个mapreduce job 完成.

首先将大表和小表分别进行map 操作, 在map shuffle 的阶段每一个map output key 变成了table_name_tag_prefix + join_column_value , 但是在进行partition 的时候它仍然只使用join_column_value 进行hash.

每一个reduce 接受所有的map 传过来的split , 在reducce 的shuffle 阶段,它将map output key 前面的table_name_tag_prefix 给舍弃掉进行比较. 因为reduce 的个数可以由小表的大小进行决定,所以对于每一个节点的reduce 一定可以将小表的split 放入内存变成hashtable. 然后将大表的每一条记录进行一条一条的比较.

 

Map Join

Map Join 的计算步骤分两步,将小表的数据变成hashtable广播到所有的map 端,将大表的数据进行合理的切分,然后在map 阶段的时候用大表的数据一行一行的去探测(probe) 小表的hashtable. 如果join key 相等,就写入HDFS.

map join 之所以叫做map join 是因为它所有的工作都在map 端进行计算.

hive 在map join 上做了几个优化:

  • hive 0.6 的时候默认认为写在select 后面的是大表,前面的是小表, 或者使用 /*+mapjoin(map_table) */ 提示进行设定. hive 0.7 的时候这个计算是自动化的,它首先会自动判断哪个是小表,哪个是大表,这个参数由(hive.auto.convert.join=true)来控制. 然后控制小表的大小由(hive.smalltable.filesize=25000000L)参数控制(默认是25M),当小表超过这个大小,hive 会默认转化成common join. 你可以查看HIVE-1642.
  • 首先小表的Map 阶段它会将自己转化成MapReduce Local Task ,然后从HDFS 取小表的所有数据,将自己转化成Hashtable file 并压缩打包放入DistributedCache 里面.

    目前hive 的map join 有几个限制,一个是它打算用BloomFilter 来实现hashtable , BloomFilter 大概比hashtable 省8-10倍的内存, 但是BloomFilter 的大小比较难控制.

    现在DistributedCache 里面hashtable默认的复制是3份,对于一个有1000个map 的大表来说,这个数字太小,大多数map 操作都等着DistributedCache 复制.

     

    Bucket Map Join

    hive 建表的时候支持hash 分区通过指定clustered by (col_name,xxx ) into number_buckets buckets 关键字.

    当连接的两个表的join key 就是bucket column 的时候,就可以通过

    hive.optimize.bucketmapjoin= true

    来控制hive 执行bucket map join 了, 需要注意的是你的小表的number_buckets 必须是大表的倍数. 无论多少个表进行连接这个条件都必须满足.(其实如果都按照2的指数倍来分bucket, 大表也可以是小表的倍数,不过这中间需要多计算一次,对int 有效,long 和string 不清楚)

  • Bucket Map Join 执行计划分两步,第一步先将小表做map 操作变成hashtable 然后广播到所有大表的map端,大表的map端接受了number_buckets 个小表的hashtable并不需要合成一个大的hashtable,直接可以进行map 操作,map 操作会产生number_buckets 个split,每个split 的标记跟小表的hashtable 标记是一样的, 在执行projection 操作的时候,只需要将小表的一个hashtable 放入内存即可,然后将大表的对应的split 拿出来进行判断,所以其内存限制为小表中最大的那个hashtable 的大小.

    Bucket Map Join 同时也是Map Side Join 的一种实现,所有计算都在Map 端完成,没有Reduce 的都被叫做Map Side Join ,Bucket 只是hive 的一种hash partition 的实现,另外一种当然是值分区.

    create table a  (xxx) partition by (col_name)

    不过一般hive 中两个表不一定会有同一个partition key, 即使有也不一定会是join key. 所以hive 没有这种基于值的map side join, hive 中的list partition 主要是用来过滤数据的而不是分区. 两个主要参数为(hive.optimize.cp = true 和 hive.optimize.pruner=true)

    hadoop 源代码中默认提供map side join 的实现, 你可以在hadoop 源码的src/contrib/data_join/src 目录下找到相关的几个类.  其中TaggedMapOutput 即可以用来实现hash 也可以实现list , 看你自己决定怎么分区. Hadoop Definitive Guide 第8章关于map side join 和side data distribution 章节也有一个例子示例怎样实现值分区的map side join.

     

    Sort Merge Bucket Map Join

    Bucket Map Join 并没有解决map join 在小表必须完全装载进内存的限制, 如果想要在一个reduce 节点的大表和小表都不用装载进内存,必须使两个表都在join key 上有序才行,你可以在建表的时候就指定sorted byjoin key 或者使用index 的方式.

    set hive.optimize.bucketmapjoin = true;

    set hive.optimize.bucketmapjoin.sortedmerge = true;

    set hive.input.format=org.apache.hadoop.hive.ql.io.BucketizedHiveInputFormat;

    Bucket columns == Join columns == sort columns

    这样小表的数据可以每次只读取一部分,然后还是用大表一行一行的去匹配,这样的join 没有限制内存的大小. 并且也可以执行全外连接.

     

    Skew Join

    真实数据中数据倾斜是一定的, hadoop 中默认是使用

    hive.exec.reducers.bytes.per.reducer = 1000000000

    也就是每个节点的reduce 默认是处理1G大小的数据,如果你的join 操作也产生了数据倾斜,那么你可以在hive 中设定

    set hive.optimize.skewjoin = true; 
    set hive.skewjoin.key = skew_key_threshold (default = 100000)

    hive 在运行的时候没有办法判断哪个key 会产生多大的倾斜,所以使用这个参数控制倾斜的阈值,如果超过这个值,新的值会发送给那些还没有达到的reduce, 一般可以设置成你

    (处理的总记录数/reduce个数)的2-4倍都可以接受.

    倾斜是经常会存在的,一般select 的层数超过2层,翻译成执行计划多于3个以上的mapreduce job 都很容易产生倾斜,建议每次运行比较复杂的sql 之前都可以设一下这个参数. 如果你不知道设置多少,可以就按官方默认的1个reduce 只处理1G 的算法,那么  skew_key_threshold  = 1G/平均行长. 或者默认直接设成250000000 (差不多算平均行长4个字节)

     

    Left Semi Join

    hive 中没有in/exist 这样的子句,所以需要将这种类型的子句转成left semi join. left semi join 是只传递表的join key给map 阶段 , 如果key 足够小还是执行map join, 如果不是则还是common join.

     

     

    join 策略中的难点

    大多数只适合等值连接(equal join) ,

    范围比较和全外连接没有合适的支持

    提前分区,零时分区,排序,多种不同执行计划很难评价最优方案.

    没有考虑IO 比如临时表,网络消耗和网络延迟时间,CPU时间,

    最优的方案不代表系统资源消耗最少.

     

     

    参考资料:

    Join Strategy in Hive

    https://cwiki.apache.org/confluence/display/Hive/Presentations

     

    Join Optimization

    https://cwiki.apache.org/Hive/joinoptimization.html

    分享到:
    评论

    相关推荐

      hadoop Join代码(map join 和reduce join)

      本文将深入探讨Map JOIN和Reduce JOIN两种在Hadoop中实现JOIN的方法,并通过代码示例来阐述它们的工作原理。 1. Map JOIN: Map JOIN在Hadoop中主要应用于小表与大表的连接。小表的数据可以完全加载到内存中,而大...

      hadoop mapreduce多表关联join多个job相互依赖传递参数

      在Hadoop MapReduce环境中,处理大数据时经常遇到多表关联(Join)的需求,尤其是在复杂的业务逻辑中。MapReduce提供了一种分布式计算模型,能够高效地处理大规模数据集,但面对多表关联,尤其是多个Job之间的依赖和...

      hadoop_join.jar.zip_hadoop_hadoop query_reduce

      Join查询在关系数据库中是一种常见的操作,用于合并来自多个表的数据。在Hadoop环境下,由于数据的分布式特性,Join操作变得复杂。通常,Hadoop中的Join可以分为几种类型:Bucket Join、Sort-Merge Join、Replicated...

      hadoop-0.21.0-datajoin.jar

      hadoop-0.21.0-datajoin.jar

      hadoop join implement

      由于Hadoop的设计初衷是为了解决大规模数据的聚合操作而非跨表操作,因此,在处理join操作时存在一定的局限性。本文旨在介绍一种新的方法——自适应连接计划生成(Adaptive Join Plan Generation),该方法针对...

      Hadoop Reduce Join及基于MRV2 API 重写

      在关系数据库中,JOIN操作用于合并两个或多个表的数据,根据它们之间的关联字段。在Hadoop MapReduce中,由于数据通常分布在不同的文件或HDFS块中,Reduce Join通过在Reducer阶段进行连接来处理这个问题。Mapper处理...

      大数据课程设计-Hadoop-MapReduce实现sql的统计、groupby和join-全部源码

      在传统数据库中,JOIN用于合并两个或多个表中的相关记录。在Hadoop MapReduce中,JOIN处理较为复杂,因为数据分布在不同的分区上。通常,有几种方法来实现JOIN,包括:1) 全外连接(Full Outer Join)通常通过两次...

      hadoop0.23.9离线api

      org.apache.hadoop.contrib.utils.join org.apache.hadoop.examples org.apache.hadoop.examples.dancing org.apache.hadoop.examples.pi org.apache.hadoop.examples.pi.math org.apache.hadoop.examples....

      elasticsearch与hadoop比较

      Elasticsearch与Hadoop是当今大数据处理领域的两大重要技术,它们在数据存储、处理和检索方面各有所长。Elasticsearch是一个基于Lucene的分布式搜索服务器,其设计目的是提供一个分布式的、可扩展的全文搜索引擎,...

      5堂Hadoop必修课,不会这些勿称高手

      标题中的“5堂Hadoop必修课”揭示了整个文档是一个指南或课程介绍,用于教授学习者如何成为Hadoop高手。具体要掌握的五个主题分别是:大数据分布式集群搭建(高可用性,HA),构建企业级MapReduce项目,Hadoop和...

      Hadoop datajoin示例(客户和订单信息)

      文件汗有三个java类,两个测试文件txt ReduceClass.java MapClass.java TaggedRecordWritable.java customers.txt ...经过亲自测试,可以将两个文件中的信息以groupby的key关联起来,查出类似数据库的join.

      19、Join操作map side join 和 reduce side join

      Join 操作在数据库中是非常常见的,它用于将来自两个或更多表的数据根据某些共享字段(即键)关联起来。在 MapReduce 中,这个概念同样适用,但需要考虑分布式环境的特性。 二、Reduce Side Join 1. 工作原理 ...

      Pro hadoop

      标题和描述中提到的《Pro Hadoop》是由Apress出版的一本关于Hadoop的专业书籍。这本书对于想要了解和学习Hadoop的读者来说是一个不错的推荐。Hadoop是一个允许使用普通硬件解决大数据问题的工具,特别适合于构建能够...

      浪潮hadoop

      Hadoop是一个开源的分布式计算框架,主要由HDFS(Hadoop Distributed File System)和MapReduce两部分组成,用于处理和存储大规模数据。在这个场景中,Hadoop被提及是因为它在应对大数据挑战时提供了有效解决方案。 ...

      spark2.1.0-bin-hadoop2.7

      在Spark 2.1.0版本中,它进一步提升了性能,并对Hadoop 2.7进行了优化整合,提供了更流畅的数据处理体验。本文将详细介绍Spark 2.1.0与Hadoop 2.7的集成特性,以及如何在Linux环境中安装和使用这个版本。 一、Spark...

      Hadoop和hive大数据面试题

      在大数据领域,Hadoop和Hive是两个至关重要的技术组件,它们在处理大规模数据存储和分析方面发挥着关键作用。本篇文章将详细探讨Hadoop和Hive的相关面试知识点,帮助求职者更好地准备大数据领域的面试。 首先,我们...

      基于Hadoop的数据仓库Hive学习指南.doc

      总结,Hive是Hadoop生态系统中的一个重要组成部分,它为数据分析师提供了便捷的SQL接口,简化了大数据处理的复杂性,特别适用于需要对大量历史数据进行分析的场景。虽然Hive在实时性和数据更新方面存在限制,但它在...

      hadoop 实战 dev_02

      课程内容还涉及了如何从nginx日志中提取访问量最高的IP地址,使用Unix/Linux的工具链,如awk、grep、sort、join等进行简单的日志分析。 综上所述,本课程深入介绍了Hadoop在Web日志分析中的应用,从基本的日志概念...

    Global site tag (gtag.js) - Google Analytics