用CREATE TEMPORARY FUNCTION 的函数,下次进入又要重新CERATE,很费劲。
发现hive -i <脚本文件>, 在启动时会执行脚本文件,正好能解决这个问题。
1.在${HIVE_HOME}下建一个sql目录,vi init.sql,内容为:
#要用到的jar
add jar /setup/hive/lib/mysql-connector-java-5.1.25-bin.jar;
add jar /setup/hive/lib/hive_contrib.jar;
add jar /setup/hive/lib/hive-contrib-0.9.0.jar;
#创建function
CREATE TEMPORARY FUNCTION dboutput AS 'org.apache.hadoop.hive.contrib.genericudf.example.GenericUDFDBOutput';
2.在sql目录下,执行 hive -i init.sql
hive> [root@master sql]# hive -i init.sql
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in file:/setup/hive/conf/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201309261546_1027834988.txt
hive> list jar;
/setup/hive/lib/hive-contrib-0.9.0.jar
/setup/hive/lib/hive_contrib.jar
/setup/hive/lib/mysql-connector-java-5.1.25-bin.jar
file:/setup/hive/lib/hive-builtins-0.9.0.jar
hive> show functions 'dboutput';
OK
dboutput
Time taken: 0.432 seconds
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in file:/setup/hive/conf/hive-log4j.properties
Hive history file=/tmp/root/hive_job_log_root_201309261546_1027834988.txt
hive> list jar;
/setup/hive/lib/hive-contrib-0.9.0.jar
/setup/hive/lib/hive_contrib.jar
/setup/hive/lib/mysql-connector-java-5.1.25-bin.jar
file:/setup/hive/lib/hive-builtins-0.9.0.jar
hive> show functions 'dboutput';
OK
dboutput
Time taken: 0.432 seconds
相关推荐
大数据hadoop中hive-1.1.0 的cli ,jar包,hive-cli-1.1.0.jar
可能的修改包括设置JVM启动参数、调整Hive配置文件(如`hive-site.xml`)中的相关属性,或者直接在源码中修改处理字符串的函数以处理中文字符。 描述中提到的“desc table1”命令是Hive中用于获取表详细信息的标准...
HiveCLI和Beeline命令行的基本使用,基础篇
通过mysql> source XXXXX\hive-schema-3.1.0.mysql.sql初始化元数据
标题“hive所有jar文件”指的是这个压缩包包含了Hive运行时可能需要的所有依赖JAR文件,特别是一些为了连接和操作HBase而必要的组件。这些JAR文件通常包含各种库和API,使得Hive能够与HBase进行通信,执行如读取、...
- **Beeline或Hive CLI增强工具**:有些第三方工具可以增强Hive的命令行接口,添加执行计划的可视化功能。 压缩包文件列表中的"dist"可能是工具的分发目录,其中可能包含可执行文件、配置文件和其他支持文件,用于...
首次使用Hive时,需要初始化元数据: ``` sudo -u hive hive --service metastore ``` 六、启动Hive CLI 现在你可以通过Hive命令行接口(CLI)与Hive交互了: ``` hive ``` 在Hive CLI中,你可以创建数据库、表,...
Apache Hive 是一个基于 Hadoop 的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行。其优点是学习成本低,可以通过类 SQL 语句...
基于Hadoop Hive健身馆可视化分析平台项目源码+数据库文件.zip启动方式 环境启动 hadoop hive2元数据库 sql导入 导入hivesql脚本,修改application.yml 启动主程序 HadoopApplication 基于Hadoop Hive健身馆可视化...
hive-cli.jar hive-common.jar hive-contrib.jar hive-hbaseec.jar hive-hbase-handler.jar hive-hwi.jar hive-jdbc.jar hive-metastorejar hive-serde.jar hive-service.jar hive-shims.jar hadoop-core-1.0.4.jar
- **hive**:这是Hive的可执行脚本,用于启动Hive CLI或与Hive服务器通信。 - **hiveserver2**:Hive Server 2是Hive的服务端组件,允许远程客户端连接并执行Hive查询。 - **hplsql**:可能是一个用于执行Hive和...
6. **启动Hive CLI**: 完成配置后,你可以通过命令行启动Hive CLI。通常使用`hive`命令即可打开。在Hive CLI中,你可以执行HQL语句,例如创建表、插入数据、查询数据等。 7. **Hive与Hadoop的关系**: Hive并不是一...
最后,对于源码层面的理解,虽然这里没有具体提及,但深入源码可以帮助我们更好地理解Hive的工作原理,例如如何解析SQL语句、生成执行计划以及与Hadoop生态的交互机制,这对于解决高级问题和定制化需求很有帮助。...
2. **启动Hive**:运行`bin/hive`启动Hive CLI,或者启动Hive Server以供远程连接。 3. **创建表**:使用HQL创建数据表,并指定存储位置(通常是HDFS的一个路径)。 4. **加载数据**:将数据从本地文件系统或HDFS...
Hive指令样例.txt 文件则包含了Hive CLI(Command Line Interface)的操作命令。这些命令涵盖了Hive的基本操作,例如: 1. **创建数据库**:`CREATE DATABASE IF NOT EXISTS mydb;` 这个命令会创建一个名为mydb的新...
hive安装依赖以及启动脚本 文件包含如下: 01_mysql-community-common-5.7.29-1.el7.x86_64.rpm 02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm 03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm 04_...
### 五、初始化Hive元数据 运行Hive的metastore服务,初始化元数据: ```bash /usr/local/hive/bin/schematool -initSchema -dbType mysql ``` ### 六、启动Hive 启动Hive的metastore服务和Hive CLI: ```bash /...
4. 初始化Metastore:运行Hive的schematool工具,初始化元数据存储。 5. 启动Hive:使用hive命令启动Hive CLI,或者通过HiveServer2启动服务供其他客户端连接。 总结,Apache Hive 0.13.0 是一个强大且功能丰富的...
总结起来,将Hive metastore迁移到达梦数据库涉及创建数据库用户和表空间、修改Hive配置文件以及初始化元数据等步骤。这个过程不仅可以提升元数据管理的性能,还可以利用达梦数据库的特性来增强数据安全性。然而,...
3. **初始化Hive**: 运行 `sourcing` 命令使更改生效,然后启动Hive: ``` source ~/.bashrc bin/hive --service metastore ``` **安装MySQL** 1. **下载与安装**: 从MySQL官网获取适合你操作系统的MySQL...