cphive-default.xml.template hive-site.xml
hive.metastore.local true
javax.jdo.option.ConnectionURL jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true
javax.jdo.option.ConnectionUserName hadoop
javax.jdo.option.ConnectionPassword hadoop
pt@iQuny:~/hadoop/hive-0.9.0-bin/conf$ hive
WARNING: org.apache.hadoop.metrics.jvm.EventCounter is deprecated. Please use org.apache.hadoop.log.metrics.EventCounter in all the log4j.properties files.
Logging initialized using configuration in jar:file:/home/pt/hadoop/hive-0.9.0-bin/lib/hive-common-0.9.0.jar!/hive-log4j.properties
Hive history file=/tmp/pt/hive_job_log_pt_201208151502_733826926.txt
hive> show tables;
OK
Time taken: 6.132 seconds
hive> create table peter_test(user_id int,username string);
OK
Time taken: 0.454 seconds
hive> show tables;
OK
peter_test
Time taken: 0.247 seconds
show the tables created in db hive
mysql> show tables;
+-----------------+
| Tables_in_hive |
+-----------------+
| BUCKETING_COLS |
| CDS |
| COLUMNS_V2 |
| DATABASE_PARAMS |
| DBS |
| PARTITION_KEYS |
| SDS |
| SD_PARAMS |
| SEQUENCE_TABLE |
| SERDES |
| SERDE_PARAMS |
| SORT_COLS |
| TABLE_PARAMS |
| TBLS |
+-----------------+
14 rows in set (0.00 sec)
分享到:
相关推荐
本文将详细讨论如何使用Spring Boot、MyBatis和Druid来实现MySQL与Hive之间的多数据源切换,以满足不同业务场景的需求。 首先,Spring Boot是Spring框架的一种轻量级实现,它简化了配置并提供了快速开发新应用的...
需要修改hive-config.sh文件,添加JAVA_HOME、HIVE_HOME和HADOOP_HOME变量。同时,需要拷贝hive-default.xml.template文件到hive-site.xml文件,并对其进行修改。 7. Hive元数据库配置 Hive的元数据库需要使用...
hive环境安装 关于ubuntu下安装hive所需的文件如下 apache-hive-3.1.3-bin.tar.gz mysql-apt-config_0.8.17-1_all.deb mysql-connector-j-8.0.33.jar
- 在 `$HIVE_HOME/bin` 目录下的 `hive-config.sh` 文件中设置 `JAVA_HOME` 的路径。 通过以上步骤,我们可以完成Hive的基本安装配置。这些基础知识对于理解Hive的工作原理和在实际项目中应用Hive都非常关键。此外...
4. **创建 Metastore 数据库**:Hive 使用 Metastore 服务存储元数据,可以选择 MySQL、Derby 或其他兼容的数据库。根据配置文件中的信息创建对应的数据库和用户。 5. **启动 Hive**:启动 Hive 服务,可以使用命令...
6. **`metastore_db`**: Hive的元数据存储通常使用一个外部数据库(如MySQL或Derby),这个目录可能包含了元数据数据库的脚本或者数据库本身。 7. **`log4j.properties`**: 日志配置文件,用于控制Hive服务器和...
Presto的设计理念是快速、可扩展和易用,它能够跨多种数据源进行查询,包括Hadoop HDFS、Amazon S3、Cassandra、MySQL等。 【Presto与Hive的集成】 Presto-Hive连接器是Presto生态系统中的一个重要组件,它允许...
确保Hive依赖项如Hadoop和MySQL(或其它元数据存储)已正确配置。 这个过程可能需要一些时间来熟悉,但一旦完成,你将拥有一个在Ubuntu上的功能完备的Hadoop和Hive环境,可以用于大数据处理和分析任务。记住,每个...
描述: 这个资源包含了一个基本的Spark集群配置,包括Hadoop、Hive、MySQL和Spark的配置文件。 文件清单: Dockerfile build.sh build_network.sh -yarn-site.xml -stop_containers.sh -start-hadoop.sh -start_...
2. **mysql-config**: Oozie通常使用MySQL作为其元数据存储。这里的配置文件可能包括`my.cnf`,这是MySQL服务器的主配置文件,用于设定数据库服务器的参数,如端口、日志位置、用户权限等。 3. **hbase-config**: ...
FlowView-数据管道监控系统 概述 FlowView是一个监视... 理想情况下,加载阶段是通过作业调度程序每小时触发的,它通过数据管道获取信息并写入Hive和MySQL表。 触发清理阶段以删除数据集的记录,清理本地文件系统,
- **config**:存放Hibernate的全局配置文件。 - **entities**:存放实体类,如`Student`。 - **mappings**:存放实体类对应的映射文件,如`Student.hbm.xml`。 - **test**:存放单元测试类,如`HibernateTest`。 ...
接下来,创建一个 MyBatis 的主配置类,例如 `MybatisConfig.java`,并使用 `@MapperScan` 注解扫描 Mapper 接口所在的包。 ```java package com.example.config; import org.mybatis.spring.annotation....
启动Hive服务使用`hiveserver2`,初始化Hive schema与MySQL数据库关联,需要`schematool -dbType mysql -initSchema`,且MySQL中的hive数据库应预先不存在。如果遇到sqoop导入Hive时因数据存储路径被删除导致的拒绝...
DevOps-Bash工具:550多种DevOps Bash脚本-AWS,GCP,Kubernetes,Kafka,Docker,API,Hadoop,SQL,PostgreSQL,MySQL,Hive,Impala,Travis CI,Jenkins,Concourse,GitHub,GitLab,BitBucket,Azure DevOps,...
在安装Dolphinscheduler后,你需要配置`conf/dolphinscheduler-config.properties`文件,这包括数据库连接信息(如MySQL)、服务器地址、端口号等。确保所有参数正确无误,特别是数据库连接,因为Dolphinscheduler会...
Spark Streaming实时解析flume和kafka传来的josn数据写入mysql 注意,以下文件不提供 配置c3p0-config.xml链接,链接数据库 配置log4j.properties、my.properties 另,还需将您的spark和hadoop安装文件下的core-site...