HIVE 配置属性的意义,留着做笔记用,感谢大牛们的翻译
hive.exec.mode.local.auto
决定 Hive 是否应该自动地根据输入文件大小,在本地运行(在GateWay运行)
默认值:true
hive.exec.mode.local.auto.inputbytes.max
如果hive.exec.mode.local.auto 为 true,当输入文件大小小于此阈值时可以自动在本地模式运行,默认是 128兆。
默认值:134217728L
hive.exec.mode.local.auto.tasks.max
如果hive.exec.mode.local.auto 为 true,当 Hive Tasks(Hadoop Jobs)小于此阈值时,可以自动在本地模式运行。
默认值:4
hive.auto.convert.join
是否根据输入小表的大小,自动将 Reduce 端的 Common Join 转化为 Map Join,从而加快大表关联小表的 Join 速度。
默认值:false
hive.mapred.local.mem
Mapper/Reducer在本地模式的最大内存量,以字节为单位,0为不限制。
默认值:0
mapred.reduce.tasks
所提交 Job 的 reduer 的个数,使用 Hadoop Client 的配置。
默认值:1
hive.exec.scratchdir
HDFS路径,用于存储不同 map/reduce 阶段的执行计划和这些阶段的中间输出结果。
默认值:/tmp/<user.name>/hive
hive.metastore.warehouse.dir
Hive 默认的数据文件存储路径,通常为 HDFS 可写的路径。
默认值:"
hive.groupby.skewindata
决定 group by 操作是否支持倾斜的数据。
默认值:false
hive.merge.mapfiles
是否开启合并 Map 端小文件,对于 Hadoop 0.20 以前的版本,起一首新的 Map/Reduce Job,对于 0.20 以后的版本,则是起使用 CombineInputFormat 的 MapOnly Job。
默认值:true
hive.merge.mapredfiles
是否开启合并 Map/Reduce 小文件,对于 Hadoop 0.20 以前的版本,起一首新的 Map/Reduce Job,对于 0.20 以后的版本,则是起使用 CombineInputFormat 的 MapOnly Job。
默认值:false
hive.default.fileformat
Hive 默认的输出文件格式,与创建表时所指定的相同,
可选项为 'TextFile' 、 'SequenceFile' 或者 'RCFile'。 'TextFile'
hive.mapred.mode
Map/Redure 模式,如果设置为 strict,将不允许笛卡尔积。
默认值: 'nonstrict'
hive.exec.parallel
是否开启 map/reduce job的并发提交。
默认值: false
hive.security.authorization.enabled
Hive 是否开启权限认证。
默认值:false
hive.exec.plan
Hive 执行计划的路径,会在程序中自动进行设置
默认值:null
hive.exec.submitviachild
决定 map/reduce Job 是否应该使用各自独立的 JVM 进行提交(Child进程),默认情况下,使用与 HQL compiler 相同的 JVM 进行提交。
默认值:false
hive.exec.script.maxerrsize
通过 TRANSFROM/MAP/REDUCE 所执行的用户脚本所允许的最大的序列化错误数。
默认值:100000
hive.exec.script.allow.partial.consumption
是否允许脚本只处理部分数据,如果设置为 true ,因 broken pipe 等造成的数据未处理完成将视为正常。
默认值:false
hive.exec.compress.output
决定查询中最后一个 map/reduce job 的输出是否为压缩格式。
默认值:false
hive.exec.compress.intermediate
决定查询的中间 map/reduce job (中间 stage)的输出是否为压缩格式。
默认值:false
hive.intermediate.compression.codec
中间 map/reduce job 的压缩编解码器的类名(一个压缩编解码器可能包含多种压缩类型),该值可能在程序中被自动设置。
hive.intermediate.compression.type
中间 map/reduce job 的压缩类型,如 "BLOCK""RECORD"。
hive.exec.reducers.bytes.per.reducer
每一个 reducer 的平均负载字节数。
默认值:1000000000
hive.exec.reducers.max
reducer 个数的上限。
默认值:999
hive.exec.pre.hooks
语句层面,整条 HQL 语句在执行前的 hook 类名。
默认值:"
hive.exec.post.hooks
语句层面,整条 HQL 语句在执行完成后的 hook 类名。
hive.exec.parallel.thread.number
并发提交时的并发线程的个数。
默认值:8
hive.mapred.reduce.tasks.speculative.execution
是否开启 reducer 的推测执行,与mapred.reduce.tasks.speculative.execution 作用相同。
默认值:false
hive.exec.counters.pull.interval
客户端拉取 progress counters 的时间,以毫秒为单位。
默认值:1000L
hive.exec.dynamic.partition
是否打开动态分区。
默认值:false
hive.exec.dynamic.partition.mode
打开动态分区后,动态分区的模式,有 strict 和 nonstrict 两个值可选,strict 要求至少包含一个静态分区列,nonstrict 则无此要求。
默认值:strict
hive.exec.max.dynamic.partitions
所允许的最大的动态分区的个数。
默认值:1000
hive.exec.max.dynamic.partitions.pernode
单个 reduce 结点所允许的最大的动态分区的个数。
默认值:100
hive.exec.default.partition.name
默认的动态分区的名称,当动态分区列为''或者null时,使用此名称。'' '__HIVE_DEFAULT_PARTITION__'
hadoop.bin.path
HadoopClient 可执行脚本的路径,该路径用于通过单独的 JVM 提交 job,使用 Hadoop Client 的配置。
默认值:$HADOOP_HOME/bin/hadoop
hadoop.config.dir
HadoopClient 配置文件的路径,使用 HadoopClient 的配置。
默认值:$HADOOP_HOME/conf
fs.default.name
Namenode 的 URL,使用 Hadoop Client 的配置。
默认值:file:///
map.input.file
Map 的输入文件,使用 Hadoop Client 的配置。
默认值:null
mapred.input.dir
Map 的输入目录,使用 Hadoop Client 的配置。
默认值: null
mapred.input.dir.recursive
输入目录是否可递归嵌套,使用 HadoopClient 的配置。
默认值:false
mapred.job.tracker
Job Tracker的 URL,使用 Hadoop Client 的配置,如果这个配置设置为 'local',将使用本地模式。
默认值:local
mapred.job.name
Map/Reduce 的 job 名称,如果没有设置,则使用生成的 job name,使用 Hadoop Client 的配置。
默认值:null
mapred.reduce.tasks.speculative.execution
Map/Reduce 推测执行,使用 Hadoop Client 的配置。
默认值:null
hive.metastore.metadb.dir
Hive 元数据库所在路径。
默认值:"
hive.metastore.uris
Hive 元数据的 URI,多个 thrift://地址,以英文逗号分隔。
默认值:"
hive.metastore.connect.retries
连接到 Thrift 元数据服务的最大重试次数。
默认值:3
javax.jdo.option.ConnectionPassword
JDO 的连接密码。
默认值:"
hive.metastore.ds.connection.url.hook
JDO 连接 URL Hook 的类名,该 Hook 用于获得 JDO 元数据库的连接字符串,为实现了JDOConnectionURLHook 接口的类。
默认值:"
javax.jdo.option.ConnectionURL
元数据库的连接 URL。
默认值:"
hive.metastore.ds.retry.attempts
当没有 JDO 数据连接错误后,尝试连接后台数据存储的最大次数。
默认值:1
hive.metastore.ds.retry.interval
每次尝试连接后台数据存储的时间间隔,以毫秒为单位。
默认值:1000
hive.metastore.force.reload.conf
是否强制重新加载元数据配置,一但重新加载,该值就会被重置为 false。
默认值:false
hive.metastore.server.min.threads
Thrift 服务线程池的最小线程数。
默认值:8
hive.metastore.server.max.threads
Thrift 服务线程池的最大线程数。
默认值:0x7fffffff
hive.metastore.server.tcp.keepalive
Thrift 服务是否保持 TCP 连接。
默认值:true
hive.metastore.archive.intermediate.original
用于归档压缩的原始中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。
默认值:'_INTERMEDIATE_ORIGINAL'
hive.metastore.archive.intermediate.archived
用于归档压缩的压缩后的中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。
默认值:'_INTERMEDIATE_ARCHIVED'
hive.metastore.archive.intermediate.extracted
用于归档压缩的解压后的中间目录的后缀,这些目录是什么并不重要,只要能够避免冲突即可。
默认值:'_INTERMEDIATE_EXTRACTED'
hive.cli.errors.ignore
是否忽略错误,对于包含多的 SQL 文件,可以忽略错误的行,继续执行下一行。
默认值:false
hive.session.id
当前会话的标识符,格式为“用户名_时间”用于记录在 job conf 中,一般不予以手动设置。
默认值:"
hive.session.silent
当前会话是否在 silent 模式运行。 如果不是 silent 模式,所以 info 级打在日志中的消息,都将以标准错误流的形式输出到控制台。
默认值:false
hive.query.string
当前正在被执行的查询字符串。
默认值:"
hive.query.id
当前正在被执行的查询的ID。
默认值: "
hive.query.planid
当前正在被执行的 map/reduce plan 的 ID。
默认值: "
hive.jobname.length
当前 job name 的最大长度,hive 会根据此长度省略 job name 的中间部分。
默认值:50
hive.jar.path
通过单独的 JVM 提交 job 时,hive_cli.jar 所在的路径
默认值:"
hive.aux.jars.path
各种由用户自定义 UDF 和 SerDe 构成的插件 jar 包所在的路径。
默认值:"
hive.added.files.path
ADD FILE 所增加的文件的路径。
默认值:"
hive.added.jars.path
ADD JAR 所增加的文件的路径。
默认值: "
hive.added.archives.path
ADDARCHIEVE 所增加的文件的路径。
默认值:"
hive.table.name
当前的 Hive 表的名称,该配置将通过 ScirptOperator 传入到用户脚本中。
默认值:"
hive.partition.name
当前的 Hive 分区的名称,该配置将通过 ScriptOperator 传入到用户脚本中。
默认值:"
hive.script.auto.progress
脚本是否周期性地向 Job Tracker 发送心跳,以避免脚本执行的时间过长,使 JobTracker 认为脚本已经挂掉了。
默认值:false
hive.script.operator.id.env.var
用于识别 ScriptOperator ID 的环境变量的名称。
默认值:'HIVE_SCRIPT_OPERATOR_ID'
hive.alias
当前的 Hive 别名,该配置将通过 ScriptOpertaor 传入到用户脚本中。
默认值:"
hive.map.aggr
决定是否可以在 Map 端进行聚合操作
默认值:true
hive.join.emit.interval
Hive Join 操作的发射时间间隔,以毫秒为单位。
默认值:1000
hive.join.cache.size
Hive Join 操作的缓存大小,以字节为单位。
默认值:25000
hive.mapjoin.bucket.cache.size
Hive MapJoin 桶的缓存大小,以字节为单位。
默认值:100
hive.mapjoin.size.key
Hive MapJoin 每一行键的大小,以字节为单位。
默认值:10000
hive.mapjoin.cache.numrows
Hive MapJoin 所缓存的行数。
默认值:25000
hive.groupby.mapaggr.checkinterval
对于 Group By 操作的 Map 聚合的检测时间,以毫秒为单位。
默认值:100000
hive.map.aggr.hash.percentmemory
Hive Map 端聚合的哈稀存储所占用虚拟机的内存比例。
默认值:0.5
hive.map.aggr.hash.min.reduction
Hive Map 端聚合的哈稀存储的最小 reduce 比例。
默认值:0.5
hive.udtf.auto.progress
Hive UDTF 是否周期性地报告心跳,当 UDTF 执行时间较长且不输出行时有用。
默认值:false
hive.fileformat.check
Hive 是否检查输出的文件格式。
默认值:true
hive.querylog.location
Hive 实时查询日志所在的目录,如果该值为空,将不创建实时的查询日志。
默认值:'/tmp/$USER'
hive.script.serde
Hive 用户脚本的 SerDe。
默认值:'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
hive.script.recordreader
Hive 用户脚本的 RecordRedaer。
默认值:'org.apache.hadoop.hive.ql.exec.TextRecordReader'
hive.script.recordwriter
Hive 用户脚本的 RecordWriter。
默认值:'org.apache.hadoop.hive.ql.exec.TextRecordWriter'
hive.hwi.listen.host
HWI 所绑定的 HOST 或者 IP。
默认值:'0.0.0.0'
hive.hwi.listen.port
HWI 所监听的 HTTP 端口。
默认值:9999
hive.hwi.war.file
HWI 的 war 文件所在的路径。
默认值:$HWI_WAR_FILE
hive.test.mode
是否以测试模式运行 Hive
默认值:false
hive.test.mode.prefix
Hive 测试模式的前缀。
默认值:'test_'
hive.test.mode.samplefreq
Hive 测试模式取样的频率,即每秒钟取样的次数。
默认值:32
hive.test.mode.nosamplelist
Hive 测试模式取样的排除列表,以逗号分隔。
默认值:"
hive.merge.size.per.task
每个任务合并后文件的大小,根据此大小确定 reducer 的个数,默认 256 M。
默认值:256000000
hive.merge.smallfiles.avgsize
需要合并的小文件群的平均大小,默认 16 M。
默认值:16000000
hive.optimize.skewjoin
是否优化数据倾斜的 Join,对于倾斜的 Join 会开启新的 Map/Reduce Job 处理。
默认值:false
hive.skewjoin.key 倾斜键数目阈值,超过此值则判定为一个倾斜的 Join 查询。
默认值: 1000000
hive.skewjoin.mapjoin.map.tasks
处理数据倾斜的 Map Join 的 Map 数上限。
默认值: 10000
hive.skewjoin.mapjoin.min.split
处理数据倾斜的 Map Join 的最小数据切分大小,以字节为单位,默认为32M。
默认值:33554432
mapred.min.split.size
Map ReduceJob 的最小输入切分大小,与 HadoopClient 使用相同的配置。
默认值:1
hive.mergejob.maponly
是否启用 Map Only 的合并 Job。
默认值:true
hive.heartbeat.interval
Hive Job 的心跳间隔,以毫秒为单位。
默认值:1000
hive.mapjoin.maxsize
Map Join 所处理的最大的行数。超过此行数,Map Join进程会异常退出。
默认值:1000000
hive.hashtable.initialCapacity
Hive 的 Map Join 会将小表 dump 到一个内存的 HashTable 中,该 HashTable 的初始大小由此参数指定。
默认值:100000
hive.hashtable.loadfactor
Hive 的 Map Join 会将小表 dump 到一个内存的 HashTable 中,该 HashTable 的负载因子由此参数指定。
默认值:0.75
hive.mapjoin.followby.gby.localtask.max.memory.usage
MapJoinOperator后面跟随GroupByOperator时,内存的最大使用比例
默认值:0.55
hive.mapjoin.localtask.max.memory.usage
Map Join 的本地任务使用堆内存的最大比例
默认值:0.9
hive.mapjoin.localtask.timeout
Map Join 本地任务超时,淘宝版特有特性
默认值:600000
hive.mapjoin.check.memory.rows
设置每多少行检测一次内存的大小,如果超过hive.mapjoin.localtask.max.memory.usage 则会异常退出,Map Join 失败。
默认值:100000
hive.debug.localtask
是否调试本地任务,目前该参数没有生效
默认值:false
hive.task.progress
是否开启 counters ,以记录 Job 执行的进度,同时客户端也会拉取进度 counters。
默认值:false
hive.input.format
Hive 的输入 InputFormat。
默认是org.apache.hadoop.hive.ql.io.HiveInputFormat,
其他还有org.apache.hadoop.hive.ql.io.CombineHiveInputFormat
hive.enforce.bucketing
是否启用强制 bucketing。
默认值:false
hive.enforce.sorting
是否启用强制排序。
默认值:false
hive.mapred.partitioner
Hive 的 Partitioner 类。
默认值:'org.apache.hadoop.hive.ql.io.DefaultHivePartitioner'
hive.exec.script.trust
Hive ScriptOperator For trust
默认值:false
hive.hadoop.supports.splittable.combineinputformat
是否支持可切分的CombieInputFormat
默认值:false
hive.optimize.cp
是否优化列剪枝。
默认值:true
hive.optimize.ppd
是否优化谓词下推。
默认值:true
hive.optimize.groupby
是否优化 group by。
默认值:true
hive.optimize.bucketmapjoin
是否优化 bucket map join。
默认值:false
hive.optimize.bucketmapjoin.sortedmerge
是否在优化 bucket map join 时尝试使用强制 sorted merge bucketmap join。 默认值:false
hive.optimize.reducededuplication
是否优化 reduce 冗余。
默认值:true
hive.hbase.wal.enabled
是否开启 HBase Storage Handler。
默认值:true
hive.archive.enabled
是否启用 har 文件。
默认值:false
hive.archive.har.parentdir.settable
是否启用 har 文件的父目录可设置。
默认值:false
hive.outerjoin.supports.filters
是否启动外联接支持过滤条件。
默认值:true
hive.fetch.output.serde
对于 Fetch Task 的 SerDe 类
默认值:'org.apache.hadoop.hive.serde2.DelimitedJSONSerDe'
hive.semantic.analyzer.hook
Hive 语义分析的 Hook,在语义分析阶段的前后被调用,用于分析和修改AST及生成的执行计划,以逗号分隔。
默认值:null
hive.cli.print.header
是否显示查询结果的列名,默认为不显示。
默认值:false
hive.cli.encoding
Hive 默认的命令行字符编码。
默认值:'UTF8'
hive.log.plan.progress
是否记录执行计划的进度。
默认值:true
hive.pull.progress.counters
是否从 Job Tracker 上拉取 counters,淘宝特有配置项。
默认值:true
hive.job.pre.hooks
每个 Job 提交前执行的 Hooks 列表,以逗号分隔,淘宝特有配置项。
默认值:"
hive.job.post.hooks
每个 Job 完成后执行的 Hooks 列表,以逗号分隔,淘宝特有配置项。
默认值:"
hive.max.progress.counters
Hive 最大的进度 couters 个数,淘宝特有配置项。
默认值:100
hive.exec.script.wrapper
ScriptOperator 脚本调用的封装,通常为脚本解释程序。例如,可以把该变量值的名称设置为"python",那么传递到 Script Operator 的脚本将会以"python<script command>"的命令形式进行调用,如果这个值为null或者没有设置,那么该脚本将会直接以"<scriptcommand>" 的命令形式调用。
默认值:null
hive.check.fatal.errors.interval
客户端通过拉取 counters 检查严重错误的周期,以毫秒为单位,淘宝特有配置项。
默认值:5000L
相关推荐
三、Hive配置 在Hadoop集群上启用Hive的权限管理,需要在Hive的配置文件`hive-site.xml`中设置以下参数: 1. `hive.support.concurrency`:设置为`true`启用元数据锁定,以支持并发操作。 2. `hive.enforce....
5. Hive配置文件的准备工作,包括修改hive-env.sh.template为hive-env.sh,并设置HADOOP_HOME环境变量指向Hadoop安装目录,还需要配置HIVE_CONF_DIR为Hive的配置文件目录。 6. 将Hive的安装目录和bin目录加入到系统...
以下是对 Hive 安装配置、常用命令及其功能的详细说明: 1. **Hive 的安装配置** - **下载与解压**:从 Apache 官方镜像站点下载稳定版本的 Hive,例如 `hive-0.7.1.tar.gz`,并将其解压到已安装 Hadoop 的主机...
**HIVE可视化工具DbVisualizer 12.1.1的安装配置与使用** DbVisualizer是一款强大的数据库管理和分析工具,支持多种数据库系统,包括HIVE。以下将详细介绍如何安装配置DbVisualizer,并使用它来操作HIVE数据库。 *...
1. `hive-site.xml`:这是Hive的主要配置文件,用于设置Hive的各种属性,如Metastore的数据库连接信息、HDFS路径、Hive执行模式(本地模式或分布式模式)等。 2. `metastore_db`:这是Hive元数据存储的地方,可以是...
-hiveconf : 用于定义hive执行时的属性,即配置参数,可覆盖hive-site.xml中配置的hive全局变量。 egg: hive -e查询: hive -S -e “use tv; select * from test;” hive -f 执行文件: hive -S -f test.hql ...
- 进入 `conf` 目录,创建 `hive-site.xml` 文件,这是 Hive 的配置文件,用于设置连接 MySQL 的参数和其他配置项。 3. **配置 hive-site.xml**: - `<hive.metastore.local>` 属性设置为 `true` 表示在本地启动...
- 修改HADOOP_HOME、HIVE_CONF_DIR和HIVE_AUX_JARS_PATH三个环境变量,以正确指向Hadoop、Hive配置目录和Hive额外的JAR包目录。 5. 配置Hive环境变量: - 编辑/etc/profile文件,这通常用于设置系统级别的环境...
- `set`: 设置或查看属性,如`set key=value`设置属性,`set`列出所有设置过的属性。 - `reset`: 重置属性为默认值。 - `add`: 添加文件、jar包或归档到DistributeCache,以便在MapReduce任务中使用。 - `list`:...
2. **修改Hive配置**:在Hive的配置文件`hive-site.xml`中,设置`hive.exec.charset`属性为`UTF-8`,确保Hive在解析脚本时使用正确的字符集。 3. **命令行参数**:在执行Hive命令时,可以添加`-Dfile.encoding=UTF-...
如果您尚未设置它们,请参考以下说明: & 。 您可以从下载我们的测试数据。 README.txt具有有关其数据属性的非常详细的说明。 在wirteup中也有描述。 请将给定数据集中的::替换为 (这是一个标签)。 只要使其更...
- **ConsumeKafka_0_10**: 设置与Producer相同的brokers地址,确保topic与Producer匹配,以及设置消费组ID。你可以通过命令行工具`kafka-console-consumer.sh`来验证数据的消费。 **4、负载均衡与并发** 在大型...
这通常涉及`tar`命令来解压文件,以及编辑`~/.bashrc`或`~/.bash_profile`文件来设置`JAVA_HOME`,`PATH`和`CLASSPATH`等环境变量。 2. **文件复制**:利用SSH密钥登录机制,将JDK环境变量文件从主节点复制到从节点...
在本使用说明文档中,我们将深入探讨Apache Atlas的功能、安装配置、操作指南以及如何在实际项目中应用。 1. **Apache Atlas的基本概念** - 元数据:记录数据的数据,如数据的来源、含义、格式等。 - 实体:...
* –input-null-string <null-str>:同上,设定时,最好与上面的属性一起设置,且设置同样的值(比如空字符串等等)。 * –map-column-java <arg>:数据库字段在生成的java文件中会映射为各种属性,且默认的数据类型...
在JavaScript编程中,获取当前月份的第一天和最后一天是常见的日期处理需求,这对于日历应用、数据分析或者其他与时间相关的...理解日期对象的属性和方法以及如何操作它们对于进行任何日期相关的编程都是非常重要的。
- Hadoop配置:介绍了如何配置Hadoop环境,包含所需的各种配置属性。 - 创建和运行Hadoop作业,包括MapReduce作业和Hadoop Streaming作业的创建与执行。 - 运行Hadoop工具,如使用tasklet和runner类来替代传统的...
`.gitattributes`定义了Git仓库中文件的属性,`.gitignore`列出应当被Git忽略的文件或目录,`KEYS`通常用于验证软件签名,`LICENSE`文件则列出了项目的许可协议,而`README.md`是项目的基本说明文档,通常包含项目...
5. **配置与设置**:Hadoop API文档也会涵盖如何配置Hadoop集群,包括修改`core-site.xml`、`hdfs-site.xml`和`mapred-site.xml`配置文件,以调整各种参数,如副本数、内存分配和网络拓扑。 6. **错误处理与容错...
在连接Inceptor时,文档详细说明了如何通过Waterdrop执行连接操作,其中包括了JDK环境变量的设置、Waterdrop的下载和安装、以及如何添加InceptorSDK驱动来确保能够与InceptorServer进行通信。 文档中实验内容的第一...