安装Hive2.1.0
1.准备工作:安装JDK、Hadoop
2.下载并解压Hive
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.1.0/apache-hive-2.1.0-bin.tar.gz cp apache-hive-2.1.0-bin.tar.gz /usr/local tar -zxvf apache-hive-2.1.0-bin.tar.gz mv apache-hive-2.1.0-bin.tar.gz hive sudo chown -R hadoop:hadoop hive
3. 设置Hive环境变量
vi ~/.bashrc export HIVE_HOME=/usr/local/hive export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin:$HIVE_HOME/bin source ~/.bashrc
4. 修改Hive的配置文件
cp conf/hive-default.xml.template hive-site.xml cp conf/hive-log4j.properties.template hive-log4j.properties cp conf/hive-exec-log4j.properties.template hive-exec-log4j.properties
5. 修改 hive-site.xml
<property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://192.168.53.94:3306/hive_db?createDatabaseIfNotExist=true&useUnicode=true&characterEncoding=UTF-8</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>123456</value> <description>password to use against metastore database</description> </property>
6. 修改 hive-site.xml 替换${system:java.io.tmpdir} 和 ${system:user.name}为/home/hadoop/hive/tmp/,否则会报如下错误
Logging initialized using configuration in file:/usr/local/hive/conf/hive-log4j2.properties Async: true Exception in thread "main" java.lang.IllegalArgumentException: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D at org.apache.hadoop.fs.Path.initialize(Path.java:205) at org.apache.hadoop.fs.Path.<init>(Path.java:171) at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:631) at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:550) at org.apache.hadoop.hive.ql.session.SessionState.beginStart(SessionState.java:518) at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:705) at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:641) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:498) at org.apache.hadoop.util.RunJar.run(RunJar.java:221) at org.apache.hadoop.util.RunJar.main(RunJar.java:136) Caused by: java.net.URISyntaxException: Relative path in absolute URI: ${system:java.io.tmpdir%7D/$%7Bsystem:user.name%7D at java.net.URI.checkPath(URI.java:1823) at java.net.URI.<init>(URI.java:745) at org.apache.hadoop.fs.Path.initialize(Path.java:202) ... 12 more
7. 为Hive建立相对应的Mysql账户,并赋予足够的权限
CREATE USER 'hive' IDENTIFIED BY '123456'; GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION; flush privileges;
8.将mysql-connector-java-5.1.30-bin.jar 放入 $HIVE_HOME/lib下
9.启动Hive
./bin/hive
10.启动Hive报错(如无请忽略)
Caused by: MetaException(message:Hive metastore database is not initialized. Please use schematool (e.g. ./schematool -initSchema -dbType ...) to create the schema. If needed, don't forget to include the option to auto-create the underlying database in your JDBC connection string (e.g. ?createDatabaseIfNotExist=true for mysql)) 这是由于没有初始化Hive元数据的数据库,默认情况下,Hive的元数据保存在了内嵌的derby数据库里 执行如下命令方可 ./bin/schematool -initSchema -dbType derby
11.测试Hive
create table table_name ( id int, dtDontQuery string, name string ); show tables;
相关推荐
安装和配置Hive时,需要确保先安装了Java和Hadoop,并设置好相应的环境变量。然后,您可以根据需求配置Hive的metastore服务、Hive-site.xml配置文件,以及Hadoop的相关设置。一旦配置完成,就可以通过Hive CLI或...
在实际使用中,你需要先解压"apache-hive-2.1.0-bin.tar.gz",配置环境变量,连接到Hadoop集群,并设置Metastore数据库。然后,你可以通过Hive CLI或者使用JDBC/ODBC驱动连接的第三方工具来执行HQL查询。对于复杂的...
4. **MySQL 5.5.44安装配置**: 用于存储Hive的元数据。 5. **Scala 2.11.8安装配置**: 虽然不是必须的,但安装Scala有助于更好地理解和使用Hive背后的原理。 6. **HBase 1.3.6安装配置**: 可选组件,用于支持Hive...
为了配置SQuirreL以连接Hive 2.1.0,你需要按照以下步骤操作: 1. 将"apache-hive-2.1.0-lib"目录下的所有jar文件复制到SQuirreL的类路径中,通常是`$SQUIRREL_HOME/lib`目录。 2. 启动SQuirreL SQL Client。 3. ...
4. **数据库连接**:如果Hive与外部数据库交互,如MySQL,确保数据库的字符集设置也是UTF-8。 5. **替换jar文件**:在某些情况下,可能需要更新或替换特定版本的jar包,例如这里提到的`hive-exec-2.1.1.jar`。这...
2. **安装与配置**:在CDH集群上部署Apache Atlas需要对环境进行适当的配置,包括设置数据库连接(如使用HBase或MySQL作为元数据存储)、配置服务发现(如使用Zookeeper)以及配置Atlas的REST API接口以供其他CDH...
在"ranger-2.1.0-admin.tar.gz"这个压缩包中,我们将会探讨Ranger的安装、配置以及它如何在不同组件中实现数据保护。 1. **Ranger的架构与组件** Apache Ranger 包含几个关键组件: - **Ranger Admin**: 管理界面...
在替换Hive相关的文件之前,还需要备份现有的Hive安装目录。这一步是为了防止升级过程中出现意外情况导致原有配置丢失。 ``` cd /opt/cloudera/parcels/CDH-6.3.2-1.cdh6.3.2.p0.1605554/lib/ cp -r hive/ hive.212...
- **配置步骤**:解压"apache-atlas-2.1.0"后,需要根据CDH 6.3.0的配置进行适当的调整,例如设置HBase、Zookeeper、Hive等服务的连接信息。 - **数据库配置**:Apache Atlas通常依赖于一个关系型数据库来存储元...
* Hadoop 配置文档 Ambari:2.1.0 * HDP:2.3.0 * HDP-UTILS:1.1.0.20 服务器安装准备工作: * 下载 CentOS ISO 文件 * 下载 HDP Repository、HDP-UTILS Repository 和 Ambari Repository * 下载 MySQL 文件 * ...
安装JDK、MySQL以及设置好操作系统相关配置,如网络配置等,以确保Ambari的正常运行。 #### Ambari的安装与配置 在所有准备就绪后,按照安装指南一步步进行Ambari Server和Ambari Agent的安装。安装过程中要确保...
它支持多种数据库后端,包括但不限于Apache Impala、Hive、MySQL、PostgreSQL等,极大地扩展了Python在大数据领域的应用范围。 ibis-2.1.0版本引入了一些关键特性,例如: 1. 性能优化:新版本在执行效率上进行了...
此过程涉及多个组件的安装和配置,包括但不限于Hadoop、Hive、Sqoop、Spark、MySQL以及Azkaban等。每个组件都有其特定的功能,并且相互之间存在着紧密的协作关系,共同构成了一个强大而灵活的大数据处理平台。对于...
安装前的环境搭建工作是安装Ambari的基础和前提,它包括了安装操作系统、配置网络环境、设置静态IP地址、配置主机名和主机映射等步骤。这些步骤是确保Ambari安装成功和集群稳定运行的关键。 总而言之,安装Ambari...
apache-flume-1.7.0-bin.tar.gz,apache-hive-1.2.1-bin.tar.gz,apache-hive-2.1.0-bin.tar.gz,FileZilla_Server-0_9_60_2.exe,hadoop-2.7.2.tar.gz,hbase-1.1.5-bin.tar.gz,kafka_2.11-0.10.2.0.tgz,mysql-...
Hadoop及其生态圈搭建所需的一整套安装包,包括,zookeeper-3.4.13.tar.gz,spark-2.4.3-bin-hadoop2.7.tgz,scala-2.11.8.tgz,Python-3.6.4.tgz,mysql-connector-java-5.1.34.jar,kafka_2.11-2.1.0.tgz,jdk-8u...
Spark: 2.1.0 Eclipse: 3.8 (注意:Eclipse 3.8是一个较旧的版本,考虑使用更新版本) ECharts: 3.4.0 1.3 使用的核心技术 Spark大数据分析框架 MLlib机器学习库 MySQL数据库管理系统 Hadoop生态系统(HDFS, YARN等)...
Spark: 2.1.0 Eclipse: 3.8 (注意:Eclipse 3.8是一个较旧的版本,考虑使用更新版本) ECharts: 3.4.0 1.3 使用的核心技术 Spark大数据分析框架 MLlib机器学习库 MySQL数据库管理系统 Hadoop生态系统(HDFS, YARN等)...