`
lc_koven
  • 浏览: 354055 次
  • 性别: Icon_minigender_1
  • 来自: 杭州
社区版块
存档分类
最新评论

hbase的export与import工具

 
阅读更多
    hbase提供了导出表的方案,将指定的表导出到HDFS或本地,这样方便了备份或数据转移。
    最快的方式是通过mapreduce来完成这件事,需要在hbase的conf中添加mapred-site.xml:
<property>
  <name>mapred.job.tracker</name>
  <value>192.168.0.1:9001</value>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/tmp/hadoop-${user.name}</value>
</property>

    然后执行:
hbase org.apache.hadoop.hbase.mapreduce.Export backup_table hdfs://192.168.0.1:9000/user/test/backup_table

    数据被写到了相应的目录,一个region一个文件。默认为sequencefile。当然还可以选择对输出进行压缩等。
    要将输出的数据导入某个hbase的表,需执行以下命令:
hbase org.apache.hadoop.hbase.mapreduce.Import backup_table hdfs://192.168.0.1:9000/user/test/backup_table

    此时再看对应的表,己经有数据了。
分享到:
评论
3 楼 中原飘雪 2011-09-15  
lc_koven 写道
中原飘雪 写道
你好,看了你几篇文章,感觉很受益。目前有两个疑问,不知应该在何处提问,就放在此处了。

1 我看到网上的资料,hbase从0.90以后有自带的zk了,但是看很多人的文章,都是使用自己另外安装的zookeeper,请问下这两者有什么区别呢?

2  看到一些性能调优的文章,那些参数应该都是在hbase-default.xml中设置的,可hbase0.9里面废弃这个文件了,那应该在何处设置呢?

本人是hbase的初学者,可能问题中本身就有理解错误的地方,请有空回答我,不甚感激!


1 没有任何区别。自带的zk也能独立使用
2 你搜索一下hbase-default.xml吧:)不过最好还是修改hbase-site.xml吧。


谢谢!

另外,按照你这篇文章里提到的导入和导出数据步骤操作,提示找不到hadoop jar包的错误,不知你是否遇到过此类问题。可否告知你使用的hadoop和hbase版本分别是多少?hbase/conf中添加的mapred-site.xml是否需要各个节点都添加呢?
2 楼 lc_koven 2011-09-10  
中原飘雪 写道
你好,看了你几篇文章,感觉很受益。目前有两个疑问,不知应该在何处提问,就放在此处了。

1 我看到网上的资料,hbase从0.90以后有自带的zk了,但是看很多人的文章,都是使用自己另外安装的zookeeper,请问下这两者有什么区别呢?

2  看到一些性能调优的文章,那些参数应该都是在hbase-default.xml中设置的,可hbase0.9里面废弃这个文件了,那应该在何处设置呢?

本人是hbase的初学者,可能问题中本身就有理解错误的地方,请有空回答我,不甚感激!


1 没有任何区别。自带的zk也能独立使用
2 你搜索一下hbase-default.xml吧:)不过最好还是修改hbase-site.xml吧。
1 楼 中原飘雪 2011-09-08  
你好,看了你几篇文章,感觉很受益。目前有两个疑问,不知应该在何处提问,就放在此处了。

1 我看到网上的资料,hbase从0.90以后有自带的zk了,但是看很多人的文章,都是使用自己另外安装的zookeeper,请问下这两者有什么区别呢?

2  看到一些性能调优的文章,那些参数应该都是在hbase-default.xml中设置的,可hbase0.9里面废弃这个文件了,那应该在何处设置呢?

本人是hbase的初学者,可能问题中本身就有理解错误的地方,请有空回答我,不甚感激!

相关推荐

    hbase和hadoop数据块损坏处理

    HBase 提供了多种备份与恢复方法,包括 Export、Import、Snapshot 等。 Export 和 Import 是 HBase 的内置功能,可以将 HBase 表内容输出成 HDFS 的 SequenceFiles 文件,然后将文件插入到 HBase 表中。 Snapshot ...

    hbase备份和数据恢复

    1. HBase到HDFS:可以通过HBase的Export工具,将HBase表的数据导出到HDFS文件,然后进行进一步处理或备份。 2. HDFS到HBase:可以使用HBase的Import工具,将HDFS上的数据文件加载到HBase表中。此过程通常包括预处理...

    nosql实验五-HBase数据迁移与数据备份&恢复.docx

    在本实验中,我们使用 HBase Export 将指定的数据导出,然后使用 HBase Import 导入指定的目录。具体步骤如下: 1. 利用 HBase Export 将指定的数据导出。 2. 利用 HBase Import 导入指定的目录。 3. 利用 HBase ...

    hbase网址

    “工具”则可能指HBase生态系统中的各种工具,如HBase Shell(命令行接口)用于管理表和操作数据,HBase MapReduce用于批量处理数据,HBase Export和Import工具用于数据导入导出,以及HBase的监控工具如HBase Master...

    geomesa-hbase安装包

    3. 配置环境变量:在系统环境变量中添加Geomesa-HBase的路径,如`export GEOMESA_HBASE_HOME=/path/to/geomesa-hbase-2.1.0-SNAPSHOT`。 4. 链接HBase:在HBase的conf/hbase-site.xml中配置Geomesa的相关属性,如`...

    hbase-1.4.10-bin.tar.gz

    export PATH=$PATH:/path/to/hbase-1.4.10/bin ``` 配置HBase需要修改`conf/hbase-site.xml`文件。创建一个新文件或根据需求修改已存在的配置,例如设置HBase的主节点(`hbase.master`)和Zookeeper地址(`hbase....

    hbase备份恢复实例

    本文将详细介绍HBase中的几种备份恢复方法,包括快照(Snapshots)、复制(Replication)、导出/导入(Export/Import)以及拷贝表(CopyTable)等,并通过具体示例加以说明。 #### 二、HBase备份恢复概述 HBase提供了多种...

    hbase技术分享

    HBase利用Hadoop的HDFS作为其文件存储系统,并且使用Hadoop MapReduce来处理HBase中的数据,同时能够与Hadoop生态中的其他工具无缝集成。 在HBase中,列族(Column Family)是表数据模型中一个非常重要的概念。列族...

    Sqoop数据采集工具简介、安装、使用学习笔记(配合Hive和Hbase)

    本文详细介绍了 Sqoop 数据采集工具的基本概念、安装步骤以及如何与 Hive 和 HBase 协同工作。通过具体的命令示例,读者可以快速上手 Sqoop 的使用,完成数据在传统数据库与 Hadoop 生态系统之间的迁移。此外,还...

    hbase运维手册

    与Export相反,Import工具用于将外部数据导入HBase中。这在整合不同来源的数据集时非常有用,可以帮助构建更全面的数据视图。 ##### 1.1.7 ImportTsv ImportTsv是专门用于将TSV(Tab-Separated Values)文件导入...

    HBase Hive

    - **Import/Export**: `hbase org.apache.hadoop.hbase.mapreduce.Export` 和 `hbase org.apache.hadoop.hbase.mapreduce.Import` 命令用于将数据导出到HDFS或从HDFS导入数据,这在数据迁移或备份场景下非常有用。...

    sqoop学习文档(2){Sqoop import、Sqoop export}.docx

    总的来说,Sqoop 提供了灵活的选项来处理数据的导入和导出,无论是全量还是基于查询的导入,或是将数据在 HDFS、Hive 和 HBase 与 RDBMS 之间自由流动。在实际操作中,需要根据具体需求选择合适的参数和模式,确保...

    第1章 HBase入门_v1.3.docx

    - **数据迁移**:使用`Export`和`Import`工具可以将数据迁移到其他HBase集群。 - **容灾备份**:定期备份HBase数据,使用HDFS的快照功能进行备份。 综上所述,HBase是一个强大的分布式NoSQL数据库系统,适用于处理...

    sqoop工具_202006041735481.docx

    Apache Sqoop 是一款开源工具,专注于实现关系型数据库管理系统(RDBMS)与Hadoop生态之间的高效数据交换。它支持将传统数据库中的数据导入Hadoop及其相关组件,如HBase和Hive,同时也支持从Hadoop中抽取数据导出至...

    Sqoop数据搬运手册.docx

    - Sqoop是一款开源工具,主要用于实现Hadoop(包括Hive、HBase等)与传统关系型数据库(如MySQL、PostgreSQL、Oracle等)之间的数据传输。 - **主要功能**: - **数据导入**:将关系型数据库的数据导入到Hadoop...

    Oracle与HDFS的桥梁_Sqoop

    Sqoop 则提供了一种方便的方式来在 Hadoop 生态系统和传统 RDBMS 之间转移数据,支持多种数据库,如 Oracle,以及与 Hive、HBase 等数据存储系统的交互。 Sqoop 提供了多个命令工具,以满足不同的需求: 1. `...

    1、Apache Sqoop介绍及部署

    Apache Sqoop是一个专门为大数据处理设计的数据迁移工具,它允许用户从关系型数据库管理系统(RDBMS)如MySQL、Oracle、DB2等导入数据到Hadoop的HDFS、Hive、HBase等组件,同时也能将数据导出回RDBMS。Sqoop利用...

    sqoop 使用手册

    3. 集成工具:可以与 Hive、Pig、HBase 等 Hadoop 生态系统的其他组件无缝集成。 通过这份Sqoop手册,你可以深入理解 Sqoop 的使用方法,掌握如何配置和调优 Sqoop 任务,以及如何解决常见问题。对于需要在 Hadoop ...

    sqoop配置.docx

    export HBASE_HOME=/usr/local/hbase0.99 # Set path to where bin/hive is available export HIVE_HOME=/usr/local/hive0.14 ``` #### 启动Sqoop与MySQL - **启动Hadoop、HBase、Hive等服务**。 - **启动MySQL...

    Apache Hadoop---Sqoop.docx

    - `sqoop export`:与导入类似, Sqoop 先建立 HDFS 数据与 RDBMS 表的映射关系,然后将 MapReduce 作业中的多个 Map 任务用于并行读取 HDFS 数据并写入数据库。 4. Sqoop 与传统 ETL 工具的对比: - 灵活性:...

Global site tag (gtag.js) - Google Analytics