`
kelvinliu117
  • 浏览: 20119 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

hive 配置参数说明

    博客分类:
  • hive
 
阅读更多

hive.exec.mode.local.auto 

决定 Hive 是否应该自动地根据输入文件大小,在本地运行(在GateWay运行) 

true

 

hive.exec.mode.local.auto.inputbytes.max 

如果 hive.exec.mode.local.auto 为 true,当输入文件大小小于此阈值时可以自动在本地模式运行,默认是 128兆。 

134217728L

 

hive.exec.mode.local.auto.tasks.max 

如果 hive.exec.mode.local.auto 为 true,当 Hive Tasks(Hadoop Jobs)小于此阈值时,可以自动在本地模式运行。 

4

 

hive.auto.convert.join 

是否根据输入小表的大小,自动将 Reduce 端的 Common Join 转化为 Map Join,从而加快大表关联小表的 Join 速度。 

false

 

hive.mapred.local.mem 

Mapper/Reducer 在本地模式的最大内存量,以字节为单位,0为不限制。 

0

 

mapred.reduce.tasks 

所提交 Job 的 reduer 的个数,使用 Hadoop Client 的配置。 

1

 

hive.exec.scratchdir 

HDFS路径,用于存储不同 map/reduce 阶段的执行计划和这些阶段的中间输出结果。 

/tmp/<user.name>/hive

 

hive.metastore.warehouse.dir 

Hive 默认的数据文件存储路径,通常为 HDFS 可写的路径。 

"

 

hive.groupby.skewindata 

决定 group by 操作是否支持倾斜的数据。 

false

 

hive.merge.mapfiles 

是否开启合并 Map 端小文件,对于 Hadoop 0.20 以前的版本,起一首新的 Map/Reduce Job,对于 0.20 以后的版本,则是起使用 CombineInputFormat 的 MapOnly Job。 

true

 

hive.merge.mapredfiles 

是否开启合并 Map/Reduce 小文件,对于 Hadoop 0.20 以前的版本,起一首新的 Map/Reduce Job,对于 0.20 以后的版本,则是起使用 CombineInputFormat 的 MapOnly Job。 

false

 

hive.default.fileformat 

Hive 默认的输出文件格式,与创建表时所指定的相同,可选项为 'TextFile' 、 'SequenceFile' 或者 'RCFile'。 

'TextFile'

 

hive.mapred.mode 

Map/Redure 模式,如果设置为 strict,将不允许笛卡尔积。 

'nonstrict'

 

hive.exec.parallel 

是否开启 map/reduce job的并发提交。 

false

 

hive.security.authorization.enabled 

Hive 是否开启权限认证。 

false

 

hive.exec.plan 

Hive 执行计划的路径,会在程序中自动进行设置 

null

 

hive.exec.submitviachild 

决定 map/reduce Job 是否应该使用各自独立的 JVM 进行提交(Child进程),默认情况下,使用与 HQL compiler 相同的 JVM 进行提交。 

false

 

hive.exec.script.maxerrsize 

通过 TRANSFROM/MAP/REDUCE 所执行的用户脚本所允许的最大的序列化错误数。 

100000

 

hive.exec.script.allow.partial.consumption 

是否允许脚本只处理部分数据,如果设置为 true ,因 broken pipe 等造成的数据未处理完成将视为正常。 

false

 

hive.exec.compress.output 

决定查询中最后一个 map/reduce job 的输出是否为压缩格式。 

false

 

hive.exec.compress.intermediate 

决定查询的中间 map/reduce job (中间 stage)的输出是否为压缩格式。 

false

 

hive.intermediate.compression.codec 

中间 map/reduce job 的压缩编解码器的类名(一个压缩编解码器可能包含多种压缩类型),该值可能在程序中被自动设置。 

 

 

hive.intermediate.compression.type 

中间 map/reduce job 的压缩类型,如 "BLOCK" "RECORD"。 

 

hive.exec.reducers.bytes.per.reducer 

每一个 reducer 的平均负载字节数。 

1000000000

 

hive.exec.reducers.max 

reducer 个数的上限。 

999

 

hive.exec.pre.hooks 

语句层面,整条 HQL 语句在执行前的 hook 类名。 

"

 

hive.exec.post.hooks 

语句层面,整条 HQL 语句在执行完成后的 hook 类名。 

 

 

hive.exec.parallel.thread.number 

并发提交时的并发线程的个数。 

8

 

hive.mapred.reduce.tasks.speculative.execution 

是否开启 reducer 的推测执行,与 mapred.reduce.tasks.speculative.execution 作用相同。 

false

 

hive.exec.counters.pull.interval 

客户端拉取 progress counters 的时间,以毫秒为单位。 

1000L

 

hive.exec.dynamic.partition 

是否打开动态分区。 

false

 

hive.exec.dynamic.partition.mode 

打开动态分区后,动态分区的模式,有 strict 和 nonstrict 两个值可选,strict 要求至少包含一个静态分区列,nonstrict 则无此要求。 

strict

 

hive.exec.max.dynamic.partitions 

所允许的最大的动态分区的个数。 

1000

 

hive.exec.max.dynamic.partitions.pernode 

单个 reduce 结点所允许的最大的动态分区的个数。 

100

 

hive.exec.default.partition.name 

默认的动态分区的名称,当动态分区列为''或者null时,使用此名称。'' 

'__HIVE_DEFAULT_PARTITION__'

 

hadoop.bin.path 

Hadoop Client 可执行脚本的路径,该路径用于通过单独的 JVM 提交 job,使用 Hadoop Client 的配置。 

$HADOOP_HOME/bin/hadoop

 

hadoop.config.dir 

Hadoop Client 配置文件的路径,使用 Hadoop Client 的配置。 

$HADOOP_HOME/conf

 

fs.default.name 

Namenode 的 URL,使用 Hadoop Client 的配置。 

file:///

 

map.input.file 

Map 的输入文件,使用 Hadoop Client 的配置。 

null

 

mapred.input.dir 

Map 的输入目录,使用 Hadoop Client 的配置。 

null

 

mapred.input.dir.recursive 

输入目录是否可递归嵌套,使用 Hadoop Client 的配置。 

false

 

mapred.job.tracker 

Job Tracker 的 URL,使用 Hadoop Client 的配置,如果这个配置设置为 'local',将使用本地模式。 

local

 

mapred.job.name 

Map/Reduce 的 job 名称,如果没有设置,则使用生成的 job name,使用 Hadoop Client 的配置。 

null

 

mapred.reduce.tasks.speculative.execution 

Map/Reduce 推测执行,使用 Hadoop Client 的配置。 

null

 

hive.metastore.metadb.dir 

Hive 元数据库所在路径。 

"

 

hive.metastore.uris 

Hive 元数据的 URI,多个 thrift://地址,以英文逗号分隔。 

"

 

hive.metastore.connect.retries 

连接到 Thrift 元数据服务的最大重试次数。 

3

 

javax.jdo.option.ConnectionPassword 

JDO 的连接密码。 

"

 

hive.metastore.ds.connection.url.hook 

JDO 连接 URL Hook 的类名,该 Hook 用于获得 JDO 元数据库的连接字符串,为实现了 JDOConnectionURLHook 接口的类。 

"

 

javax.jdo.option.ConnectionURL 

元数据库的连接 URL。 

"

 

hive.metastore.ds.retry.attempts 

当没有 JDO 数据连接错误后,尝试连接后台数据存储的最大次数。 

1

 

hive.metastore.ds.retry.interval 

每次尝试连接后台数据存储的时间间隔,以毫秒为单位。 

1000

 

hive.metastore.force.reload.conf 

是否强制重新加载元数据配置,一但重新加载,该值就会被重置为 false。 

false

 

hive.metastore.server.min.threads 

Thrift 服务线程池的最小线程数。 

8

 

hive.metastore.server.max.threads 

Thrift 服务线程池的最大线程数。 

0x7fffffff

 

hive.metastore.server.tcp.keepalive 

Thrift 服务是否保持 TCP 连接。 

true

 

hive.metastore.archive.intermediate.original 

用于归档压缩的原始中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。 

'_INTERMEDIATE_ORIGINAL'

 

hive.metastore.archive.intermediate.archived 

用于归档压缩的压缩后的中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。 

'_INTERMEDIATE_ARCHIVED'

 

hive.metastore.archive.intermediate.extracted 

用于归档压缩的解压后的中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。 

'_INTERMEDIATE_EXTRACTED'

 

hive.cli.errors.ignore 

是否忽略错误,对于包含多的 SQL 文件,可以忽略错误的行,继续执行下一行。 

false

 

hive.session.id 

当前会话的标识符,格式为“用户名_时间”用于记录在 job conf 中,一般不予以手动设置。 

"

 

hive.session.silent 

当前会话是否在 silent 模式运行。 如果不是 silent 模式,所以 info 级打在日志中的消息,都将以标准错误流的形式输出到控制台。

false

 

hive.query.string 

当前正在被执行的查询字符串。 

"

 

hive.query.id 

当前正在被执行的查询的ID。 

"

 

hive.query.planid 

当前正在被执行的 map/reduce plan 的 ID。 

"

 

hive.jobname.length 

当前 job name 的最大长度,hive 会根据此长度省略 job name 的中间部分。 

50

 

hive.jar.path 

通过单独的 JVM 提交 job 时,hive_cli.jar 所在的路径 

"

 

hive.aux.jars.path 

各种由用户自定义 UDF 和 SerDe 构成的插件 jar 包所在的路径。 

"

 

hive.added.files.path 

ADD FILE 所增加的文件的路径。 

"

 

hive.added.jars.path 

ADD JAR 所增加的文件的路径。 

"

 

hive.added.archives.path 

ADD ARCHIEVE 所增加的文件的路径。 

"

 

hive.table.name 

当前的 Hive 表的名称,该配置将通过 ScirptOperator 传入到用户脚本中。 

"

 

hive.partition.name 

当前的 Hive 分区的名称,该配置将通过 ScriptOperator 传入到用户脚本中。 

"

 

hive.script.auto.progress 

脚本是否周期性地向 Job Tracker 发送心跳,以避免脚本执行的时间过长,使 Job Tracker 认为脚本已经挂掉了。 

false

 

hive.script.operator.id.env.var 

用于识别 ScriptOperator ID 的环境变量的名称。 

'HIVE_SCRIPT_OPERATOR_ID'

 

hive.alias 

当前的 Hive 别名,该配置将通过 ScriptOpertaor 传入到用户脚本中。 

"

 

hive.map.aggr 

决定是否可以在 Map 端进行聚合操作 

true

 

hive.join.emit.interval 

Hive Join 操作的发射时间间隔,以毫秒为单位。 

1000

 

hive.join.cache.size 

Hive Join 操作的缓存大小,以字节为单位。 

25000

 

hive.mapjoin.bucket.cache.size 

Hive Map Join 桶的缓存大小,以字节为单位。 

100

 

hive.mapjoin.size.key 

Hive Map Join 每一行键的大小,以字节为单位。 

10000

 

hive.mapjoin.cache.numrows 

Hive Map Join 所缓存的行数。 

25000

 

hive.groupby.mapaggr.checkinterval 

对于 Group By 操作的 Map 聚合的检测时间,以毫秒为单位。 

100000

 

hive.map.aggr.hash.percentmemory 

Hive Map 端聚合的哈稀存储所占用虚拟机的内存比例。 

0.5

 

hive.map.aggr.hash.min.reduction 

Hive Map 端聚合的哈稀存储的最小 reduce 比例。 

0.5

 

hive.udtf.auto.progress 

Hive UDTF 是否周期性地报告心跳,当 UDTF 执行时间较长且不输出行时有用。 

false

 

hive.fileformat.check 

Hive 是否检查输出的文件格式。 

true

 

hive.querylog.location 

Hive 实时查询日志所在的目录,如果该值为空,将不创建实时的查询日志。 

'/tmp/$USER'

 

hive.script.serde 

Hive 用户脚本的 SerDe。 

'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'

 

hive.script.recordreader 

Hive 用户脚本的 RecordRedaer。 

'org.apache.hadoop.hive.ql.exec.TextRecordReader'

 

hive.script.recordwriter 

Hive 用户脚本的 RecordWriter。 

'org.apache.hadoop.hive.ql.exec.TextRecordWriter'

 

hive.hwi.listen.host 

HWI 所绑定的 HOST 或者 IP。 

'0.0.0.0'

 

hive.hwi.listen.port 

HWI 所监听的 HTTP 端口。 

9999

 

hive.hwi.war.file 

HWI 的 war 文件所在的路径。 

$HWI_WAR_FILE

 

hive.test.mode 

是否以测试模式运行 Hive 

false

 

hive.test.mode.prefix 

Hive 测试模式的前缀。 

'test_'

 

hive.test.mode.samplefreq 

Hive 测试模式取样的频率,即每秒钟取样的次数。 

32

 

hive.test.mode.nosamplelist 

Hive 测试模式取样的排除列表,以逗号分隔。 

"

 

hive.merge.size.per.task 

每个任务合并后文件的大小,根据此大小确定 reducer 的个数,默认 256 M。 

256000000

 

hive.merge.smallfiles.avgsize 

需要合并的小文件群的平均大小,默认 16 M。 

16000000

 

hive.optimize.skewjoin 

是否优化数据倾斜的 Join,对于倾斜的 Join 会开启新的 Map/Reduce Job 处理。 

false

 

hive.skewjoin.key 

倾斜键数目阈值,超过此值则判定为一个倾斜的 Join 查询。 

1000000

 

hive.skewjoin.mapjoin.map.tasks 

处理数据倾斜的 Map Join 的 Map 数上限。 

10000

 

hive.skewjoin.mapjoin.min.split 

处理数据倾斜的 Map Join 的最小数据切分大小,以字节为单位,默认为32M。 

33554432

 

mapred.min.split.size 

Map Reduce Job 的最小输入切分大小,与 Hadoop Client 使用相同的配置。 

1

 

hive.mergejob.maponly 

是否启用 Map Only 的合并 Job。 

true

 

hive.heartbeat.interval 

Hive Job 的心跳间隔,以毫秒为单位。 

1000

 

hive.mapjoin.maxsize 

Map Join 所处理的最大的行数。超过此行数,Map Join进程会异常退出。 

1000000

 

hive.hashtable.initialCapacity 

Hive 的 Map Join 会将小表 dump 到一个内存的 HashTable 中,该 HashTable 的初始大小由此参数指定。 

100000

 

hive.hashtable.loadfactor 

Hive 的 Map Join 会将小表 dump 到一个内存的 HashTable 中,该 HashTable 的负载因子由此参数指定。 

0.75

 

hive.mapjoin.followby.gby.localtask.max.memory.usage 

MapJoinOperator后面跟随GroupByOperator时,内存的最大使用比例 

0.55

 

hive.mapjoin.localtask.max.memory.usage 

Map Join 的本地任务使用堆内存的最大比例 

0.9

 

hive.mapjoin.localtask.timeout 

Map Join 本地任务超时,淘宝版特有特性 

600000

 

hive.mapjoin.check.memory.rows 

设置每多少行检测一次内存的大小,如果超过 hive.mapjoin.localtask.max.memory.usage 则会异常退出,Map Join 失败。 

100000

 

hive.debug.localtask 

是否调试本地任务,目前该参数没有生效 

false

 

hive.task.progress 

是否开启 counters ,以记录 Job 执行的进度,同时客户端也会拉取进度 counters。 

false

 

hive.input.format 

Hive 的输入 InputFormat。 

默认是org.apache.hadoop.hive.ql.io.HiveInputFormat,其他还有org.apache.hadoop.hive.ql.io.CombineHiveInputFormat

 

hive.enforce.bucketing 

是否启用强制 bucketing。 

false

 

hive.enforce.sorting 

是否启用强制排序。 

false

 

hive.mapred.partitioner 

Hive 的 Partitioner 类。 

'org.apache.hadoop.hive.ql.io.DefaultHivePartitioner'

 

hive.exec.script.trust 

Hive Script Operator For trust 

false

 

hive.hadoop.supports.splittable.combineinputformat 

是否支持可切分的 CombieInputFormat 

false

 

hive.optimize.cp 

是否优化列剪枝。 

true

 

hive.optimize.ppd 

是否优化谓词下推。 

true

 

hive.optimize.groupby 

是否优化 group by。 

true

 

hive.optimize.bucketmapjoin 

是否优化 bucket map join。 

false

 

hive.optimize.bucketmapjoin.sortedmerge 

是否在优化 bucket map join 时尝试使用强制 sorted merge bucket map join。 

false

 

hive.optimize.reducededuplication 

是否优化 reduce 冗余。 

true

 

hive.hbase.wal.enabled 

是否开启 HBase Storage Handler。 

true

 

hive.archive.enabled 

是否启用 har 文件。 

false

 

hive.archive.har.parentdir.settable 

是否启用 har 文件的父目录可设置。 

false

 

hive.outerjoin.supports.filters 

是否启动外联接支持过滤条件。 

true

 

hive.fetch.output.serde 

对于 Fetch Task 的 SerDe 类 

'org.apache.hadoop.hive.serde2.DelimitedJSONSerDe'

 

hive.semantic.analyzer.hook 

Hive 语义分析的 Hook,在语义分析阶段的前后被调用,用于分析和修改AST及生成的执行计划,以逗号分隔。 

null

 

hive.cli.print.header 

是否显示查询结果的列名,默认为不显示。 

false

 

hive.cli.encoding 

Hive 默认的命令行字符编码。 

'UTF8'

 

hive.log.plan.progress 

是否记录执行计划的进度。 

true

 

hive.pull.progress.counters 

是否从 Job Tracker 上拉取 counters,淘宝特有配置项。 

true

 

hive.job.pre.hooks 

每个 Job 提交前执行的 Hooks 列表,以逗号分隔,淘宝特有配置项。 

"

 

hive.job.post.hooks 

每个 Job 完成后执行的 Hooks 列表,以逗号分隔,淘宝特有配置项。 

"

 

hive.max.progress.counters 

Hive 最大的进度 couters 个数,淘宝特有配置项。 

100

 

hive.exec.script.wrapper 

Script Operator 脚本调用的封装,通常为脚本解释程序。例如,可以把该变量值的名称设置为"python",那么传递到 Script Operator 的脚本将会以"python <script command>"的命令形式进行调用,如果这个值为null或者没有设置,那么该脚本将会直接以"<script command>"的命令形式调用。 

null

 

hive.check.fatal.errors.interval 

客户端通过拉取 counters 检查严重错误的周期,以毫秒为单位,淘宝特有配置项。 

5000L

分享到:
评论

相关推荐

    hive参数配置说明大全

    Hive参数配置说明大全 Hive是一款基于Hadoop的数据仓库工具,用于数据的存储、查询和分析。在Hive中,参数配置起着非常重要的作用,它可以影响Hive的性能、安全性...通过合理地配置参数,可以提高Hive的性能和安全性。

    hive配置说明

    ### Hive配置参数详解 #### 一、概述 Hive 是一款基于 Hadoop 的数据仓库工具,可以帮助对在存储在 Hadoop 文件系统中的数据集进行数据整理、特殊查询和分析存储。为了更好地管理和优化Hive查询的性能,了解并合理...

    数据库工具连接hive的驱动包

    例如,调整Hive服务器的配置参数,使用连接池来管理多个数据库连接,或者通过设置合适的HQL查询优化选项,都可以提升整体性能。同时,由于Hive是分布式系统,网络延迟和并发控制也是需要考虑的因素。 总结来说,...

    hive安装所需配置文件

    1. **`core-site.xml`**: 这个文件包含了Hadoop核心的配置参数,例如HDFS(Hadoop分布式文件系统)的地址、名称节点和数据节点的位置等。在安装Hive时,需要确保它能够正确地读取和写入Hadoop集群。 2. **`hdfs-...

    HIve UDF 说明书

    文档还提到了与UDF相关的bug,比如当Hive配置参数hive.cache.expr.evaluation设置为true时(这是默认设置),嵌套使用UDF可能会产生错误的结果。这个问题影响了0.12.0、0.13.0以及0.13.1版本。在0.14.0版本中,通过...

    大数据运维技术第6章 Hive组件安装配置课件.pptx

    【大数据Hive运维技术】 ...安装Hive时,通常涉及下载Hive的软件包,解压后配置相关参数,如Hadoop的路径、元数据存储位置等,然后启动Hive服务,使其与其他Hadoop组件协同工作,以实现高效的数据分析流程。

    dbeaver安装包+该软件的hive驱动包

    其中,`<hostname>`是Hive服务器的IP地址或域名,`<port>`是HiveServer2服务的监听端口,`<database>`是默认的Hive数据库,`<configuration parameters>`可选,用于设置Hive的配置参数。 4. 指定JDBC驱动:在...

    Hive用户指南 Hive user guide 中文版

    - Hive提供了丰富的配置参数来调整其行为和性能。 #### 六、Hive UDF - **基本函数**:包括算术运算符、逻辑运算符、日期函数等。 - **UDTF**:用户定义的表生成函数,如`EXPLODE`用于展开数组或映射类型。 #### ...

    windows hive cmd 下载

    同时,还需要配置Hive的配置文件,比如指向Hadoop的配置目录,设置Hive Metastore的连接参数等。 6. **启动Hive CLI**: 完成配置后,你可以通过命令行启动Hive CLI。通常使用`hive`命令即可打开。在Hive CLI中,你...

    apache-hive-2.3.7-bin 博客同款

    2. **配置参数**:如 `hive-site.xml` 中的配置项,包括 metastore 数据库连接信息、Hive 服务器设置等。 3. **数据加载**:如何使用 Hive 从 HDFS、本地文件系统或其他数据源加载数据。 4. **查询示例**:展示 ...

    hive 参数设置

     -hiveconf : 用于定义hive执行时的属性,即配置参数,可覆盖hive-site.xml中配置的hive全局变量。 egg: hive -e查询: hive -S -e “use tv; select * from test;” hive -f 执行文件: hive -S -f test.hql ...

    大数据组件hive的安装步骤

    5. Hive配置文件的准备工作,包括修改hive-env.sh.template为hive-env.sh,并设置HADOOP_HOME环境变量指向Hadoop安装目录,还需要配置HIVE_CONF_DIR为Hive的配置文件目录。 6. 将Hive的安装目录和bin目录加入到系统...

    Hive-driver.rar

    2. **配置信息**:可能需要设置Hive服务器的地址、端口、用户名和密码等连接参数。 3. **示例代码**:展示如何在Java代码中建立连接、执行查询和处理结果。 4. **兼容性信息**:列出与Hive和HBase版本的兼容性,确保...

    apche hive0.8.1安装配置 doc

    - 进入 `conf` 目录,创建 `hive-site.xml` 文件,这是 Hive 的配置文件,用于设置连接 MySQL 的参数和其他配置项。 3. **配置 hive-site.xml**: - `<hive.metastore.local>` 属性设置为 `true` 表示在本地启动...

    hive的安装与配置.zip

    本压缩包提供了关于Hive的安装与配置的相关资源,包括"Hive的安装与配置.pdf"和"项目说明.pdf"。 首先,让我们深入理解Hive的核心概念。Hive是为了解决海量数据的存储和分析而设计的,它将结构化的数据文件映射为...

    Hive权限设置说明文档

    三、Hive配置 在Hadoop集群上启用Hive的权限管理,需要在Hive的配置文件`hive-site.xml`中设置以下参数: 1. `hive.support.concurrency`:设置为`true`启用元数据锁定,以支持并发操作。 2. `hive.enforce....

    Hive整合HBase资源文件.zip

    3. **配置步骤**:集成过程可能包括在Hive中添加HBase的元数据信息,配置HBase的连接参数,以及在Hive中创建外部表指向HBase表等步骤。 4. **使用示例**:教程可能包含创建HBase表,然后在Hive中创建对应的外部表并...

    hive外部表创建

    本文将详细介绍如何在Hive中创建外部表,并解释其背后的工作原理及相关配置参数。 #### 二、环境需求 为了成功创建并使用Hive外部表,首先需要搭建一个合适的运行环境。具体包括以下组件: 1. **Hadoop**:版本为...

    cdh6.3.2升级hive至3.x后登陆HiveServer2连接失败.doc

    - 在 Hive 3.x 版本中,默认情况下不允许运行时修改 `hive.query.redaction.rules` 这样的配置项,因为这类参数通常涉及到安全性和系统稳定性,更改可能会导致不可预知的行为。 3. **版本兼容性问题**: - 当从旧...

Global site tag (gtag.js) - Google Analytics