hbase shell 命令
mvn clean; mvn package -DskipTests=true -Dhadoop.profile=2.0
https://code.google.com/p/powermock/issues/detail?id=504
There is a work-around for this issue: run the junit tests with a '-noverify' jvm argument
scan 'MEMBER_INFO', {STARTROW => '\\x00\\x00\\x00\\x00\\x00\\x9F\\xBF\\xF4\\x00\\x00\\x00\\x00\\x10\\xB2\\xF2\\xBE', LIMIT => 1000}
STOPROW
scan ‘t1′, {RAW => true, VERSIONS => 10}
scan ‘t1′, {RAW => true}
scan ‘t1′, {RAW => true, LIMIT => 10}
scan 'xml', {RAW=>true}
scan 'xml', {RAW=>true, LIMIT=>2}
disable 'xml'
enable 'xml'
alter 'bts_ic', {NAME => 'f', BLOOMFILTER => 'ROW', VERSIONS => '3000', COMPRESSION => 'LZO', BLOCKSIZE => '8192', IN_MEMORY => 'true'}
alter 'xml', METHOD=>'table_att','coprocessor'=>'|org.apache.hadoop.hbase.coprocessor.TransformeRegionCompaction|1001|'
alter 'TestTable', METHOD =>'table_att', 'coprocessor'=>'hdfs://localhost:9000/user/tianzhao/table-trace-coprocessor-0.0.1.jar|com.trace.coprocessor.TableTraceCoprocessor|1|trace.flume.hostname=10.101.72.48,trace.sampler.fraction=1.0'
alter 'tsdb', {NAME => 't', DATA_BLOCK_ENCODING => 'FAST_DIFF'}
alter 'xml', {NAME => 'a', BLOCKCACHE => 'false'}
alter 'tianzhao', METHOD=>'table_att', MAX_FILESIZE => '102400000000'
alter 'table_1024B', METHOD=>'table_att', DURABILITY => 'ASYNC_WAL'
alter 'table_1024B', METHOD=>'table_att', DURABILITY => 'SYNC_WAL'
alter 'xml', METHOD=>'table_att_unset', NAME=>'coprocessor$1'
alter 'xml', METHOD=>'table_att_unset', NAME=>'coprocessor$2'
major_compact 'xml'
alter 't1', {NAME => 'f1',IN_MEMORY => 'true'}
alter 't1', {NAME => 'f1', METHOD => 'delete'}
alter 'ic_tianzhao', METHOD=>'table_att', MEMSTORE_FLUSHSIZE => '268435456'
// TTL 3天
alter 'test',{NAME => 'info', TTL => '259200'}
you can specify 'FOREVER' for TTL by:
create 't1',{NAME =>'f1', TTL =>2147483647}
create 'feature', {MAX_FILESIZE => '9223372036854775807'}, {NAME => 'f', BLOCKSIZE => '65535'}
create 'market', {NAME => 'o', COMPRESSION => 'SNAPPY', BLOCKSIZE => '32768'}, {NUMREGIONS => 200, SPLITALGO => 'HexStringSplit'}
create 'data_20220210', {DURABILITY => 'SKIP_WAL', MAX_FILESIZE => '549755813888', METADATA => {'SPLIT_POLICY' => 'org.apache.hadoop.hbase.regionserver.DisabledRegionSplitPolicy'}}, {NAME => 'm', DATA_BLOCK_ENCODING => 'DIFF', COMPRESSION => 'GZ'}, {NAME => 't', DATA_BLOCK_ENCODING => 'DIFF', COMPRESSION => 'GZ'}
mvn clean test -Dtest=TestFullNotifyTask -DfailIfNoTests=false
测试hbase.hstore.time.to.purge.deletes
put 't1','r5', 'f1:a','v5'
flush 't1'
scan 't1', {RAW => true, VERSIONS => 10}
delete 't1', 'r5', 'f1:a'
flush 't1'
scan 't1', {RAW => true, VERSIONS => 10}
major_compact 't1'
scan 't1', {RAW => true, VERSIONS => 10}
alter 't1',CONFIGURATION => {'hbase.hstore.time.to.purge.deletes' => '300000'}
然后重新执行一遍看下效果。
http://wiki.apache.org/hadoop/Hbase/Shell
把下面的建表语句写到一个文件中create_table.sh
create 'bts2_ic2', {NAME => 'a', BLOOMFILTER => 'ROW', COMPRESSION => 'LZO', VERSIONS => '1', BLOCKSIZE => '8192'}
alter 'bts2_ic2', METHOD =>'table_att', 'coprocessor'=>'hdfs://dump002:9000/coprocessor/hbase-coprocessor-0.3.0.jar|com.dump.hbase.coprocessor.PriceTrendEndPoint|1', DEFERRED_LOG_FLUSH => 'true', MAX_FILESIZE => '102400000000', CONFIG => { 'SPLIT_POLICY' => 'org.apache.hadoop.hbase.regionserver.ConstantSizeRegionSplitPolicy'}
exit
然后运行 $HBASE_HOME/bin/hbase shell create_table.sh即可,或者运行cat create_table.sh | $HBASE_HOME/bin/hbase shell 。
'SYSTEM.TABLE', {METHOD => 'table_att', coprocessor$1 => '|com.salesforce.phoenix.coprocessor.ScanRegionObserver|1|', coprocessor$2 => '|com.salesforce.phoenix.coprocessor.UngroupedAggregateRegionObserver|1|', coprocessor$3 => '|com.salesforce.phoenix.coprocessor.GroupedAggregateRegionObserver|1|', coprocessor$4 => '|com.salesforce.phoenix.join.HashJoiningRegionObserver|1|', coprocessor$5 => '|com.salesforce.phoenix.coprocessor.MetaDataEndpointImpl|1|', coprocessor$6 => '|com.salesforce.phoenix.coprocessor.MetaDataRegionObserver|2|', CONFIG => {'SPLIT_POLICY' => 'com.salesforce.phoenix.schema.MetaDataSplitPolicy', 'UpgradeTo20' => 'true'}}, {NAME => '_0', DATA_BLOCK_ENCODING => 'FAST_DIFF', VERSIONS => '1000', KEEP_DELETED_CELLS => 'true'}
http://learnhbase.wordpress.com/2013/03/02/hbase-shell-commands/
http://itindex.net/detail/46101-hbase-shell-%E5%91%BD%E4%BB%A4
http://www.tuicool.com/articles/uARbi2
create 't1', {NAME => 'f1', VERSIONS => 5}
put 't1', "row1", 'f1:1', "aaa"
scan 't1'
Hbase 设置irbrc保存hbase的操作命令历史
http://blog.csdn.net/wisgood/article/details/23380907
Phoneix:
!tables
CREATE TABLE IF NOT EXISTS "t1" (
row VARCHAR NOT NULL,
"f1"."1" VARCHAR
CONSTRAINT PK PRIMARY KEY (row)
);
select * from "t1";
drop table "t1"; // t1表里面的数据被删除掉了,但是table是存在的。
./sqlline.sh node35:2224 ../examples/stock_symbol.sql
./psql.sh node35:2224 ../examples/web_stat.sql ../examples/web_stat.csv ../examples/web_stat_queries.sql
./performance.sh node35:2224 1000000
performance.sh里面
# Create Table DDL
createtable="CREATE TABLE IF NOT EXISTS $table (HOST CHAR(2) NOT NULL,DOMAIN VARCHAR NOT NULL,
FEATURE VARCHAR NOT NULL,DATE DATE NOT NULL,USAGE.CORE BIGINT,USAGE.DB BIGINT,STATS.ACTIVE_VISITOR
INTEGER CONSTRAINT PK PRIMARY KEY (HOST, DOMAIN, FEATURE, DATE))
SPLIT ON ('CSGoogle','CSSalesforce','EUApple','EUGoogle','EUSalesforce','NAApple','NAGoogle','NASalesforce');"
0: jdbc:phoenix:node35:2224> select count(*) from PERFORMANCE_1000000;
+----------+
| COUNT(1) |
+----------+
| 1000000 |
+----------+
0: jdbc:phoenix:node35:2224> select * from PERFORMANCE_1000000 limit 2;
+------+------------+------------+---------------------+----------+----------+----------------+
| HOST | DOMAIN | FEATURE | DATE | CORE | DB | ACTIVE_VISITOR |
+------+------------+------------+---------------------+----------+----------+----------------+
| CS | Apple.com | Dashboard | 2013-10-22 | 425 | 1906 | 4744 |
| CS | Apple.com | Dashboard | 2013-10-22 | 471 | 875 | 9533 |
+------+------------+------------+---------------------+----------+----------+----------------+
0: jdbc:phoenix:node35:2224> explain select count(*) from PERFORMANCE_1000000;
+------------+
| PLAN |
+------------+
| CLIENT PARALLEL 27-WAY FULL SCAN OVER PERFORMANCE_1000000 |
| SERVER AGGREGATE INTO SINGLE ROW |
+------------+
0: jdbc:phoenix:node35:2224> explain select * from PERFORMANCE_1000000 limit 2;
+------------+
| PLAN |
+------------+
| CLIENT PARALLEL 27-WAY FULL SCAN OVER PERFORMANCE_1000000 |
| SERVER FILTER BY PageFilter 2 |
| CLIENT 2 ROW LIMIT |
+------------+
import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; public class UsePhoenix { public static void main(String[] args) { try { // Register Class.forName("com.salesforce.phoenix.jdbc.PhoenixDriver"); // Address String DBConnectionString = "jdbc:phoenix:10.232.98.35:2224"; Connection connection = DriverManager.getConnection(DBConnectionString); Statement statement = connection.createStatement(); ResultSet rs = statement .executeQuery("select count( *) from PERFORMANCE_1000000"); rs.next(); System.out.println("Count " + rs.getLong(1)); connection.close(); } catch (Exception e) { e.printStackTrace(); } } }
./psql.sh node35:2224 count.sql
./sqlline.sh node35:2224 count.sql
相关推荐
HBase shell是一个命令行工具,它允许用户以交互的方式运行HBase的命令,如建表、插入数据、数据查询等操作。 1. 进入HBase Shell 要进入HBase Shell,首先需要确认HBase服务已经启动。然后切换到HBase的安装目录,...
批量执行hbase shell 命令 #!/bin/bash source /etc/profile exec $HBASE_HOME/bin/hbase shell <<EOF truncate 'tracker_total_apk_fact_zyt' major_compact('t_abc') disable 't_abc' drop 't_abc' create...
### HBase Shell 常用命令详解 #### 一、HBase Shell 概述 HBase Shell 是一个基于命令行的工具,用于与HBase进行交互。它提供了一系列丰富的命令来执行基本的数据管理任务,例如创建表、插入数据、查询数据等。...
HBase Shell API 操作详解 HBase 是一个基于分布式文件系统的 NoSQL 数据库,提供了丰富的 API 来进行数据操作。在本实验中,我们将使用 HBase Shell API 来实现基本的数据操作,包括创建表、查看所有表、插入数据...
HBase Shell命令大全_monday的博客-CSDN博客_hbase shell.html
这是本人使用hbase shell的部分经验总结,一般的shell使用全部包括了。 版本,压缩,region等需求,以及使用普通shell使用hbase shell
### HBase Shell 常用命令详解 #### 一、概述 HBase 是一个分布式的、面向列的开源数据库,其设计受到了 Google 的 Bigtable 的启发。它非常适合于非结构化数据存储,提供了高可靠性、高性能、面向列、可伸缩等特点...
根据提供的文件信息,本文将详细介绍HBase的Shell操作及其应用场景,包括如何创建表、插入数据、查询数据等关键操作。 ### HBase Shell简介 HBase Shell是HBase提供的一种交互式命令行工具,用于执行HBase操作。它...
在HBase这个分布式列式数据库中,Shell是一个用于与HBase交互的命令行工具,它提供了丰富的命令来执行各种操作。以下是对HBase Shell中一些常用命令的详细说明: 1. **创建表**: `create '表名称', '列族名称 1',...
HBase Shell 实验手册 HBase Shell 是 Hadoop 家族中的一员,它是一个基于 HBase 的 Shell 交互式命令行工具,提供了便捷的方式来管理和操作 HBase 数据库。本实验手册旨在指导用户掌握 HBase Shell 的使用,了解 ...
HDFS_HBaseShell的常用命令 HDFS(Hadoop Distributed File System)是一种分布式文件系统,主要用于存储和管理大规模数据。HBase 是一个基于HDFS的NoSQL数据库,用于存储和管理大规模结构化和半结构化数据。HBase ...
HBase Shell常用命令 HBase Shell是Hadoop技术中的一个重要组件,用于管理和操作HBase数据库。以下是HBase Shell的常用命令,分为一般操作、数据定义语言(DDL)操作和数据操作语言(DML)操作三大类。 一般操作 ...
HBase Shell是HBase提供的一个交互式命令行工具,用于管理和操作HBase数据库。在这里,我们将深入探讨HBase Shell的各种命令。 1. **创建表(create)**: 使用`create '表名', '列族'`命令来创建表,如`create '...
HBase shell及常用命令 HBase Shell是HBase数据库的命令行工具,用户可以使用HBase Shell与HBase进行交互。HBase Shell是一个封装了Java客户端API的JRuby应用软件,在HBase的HMaster主机上通过命令行输入hbase ...
在HBase中,HBase Shell是一个交互式的命令行工具,用于管理和操作HBase数据库。它提供了多种命令,帮助用户执行常见的数据库操作,如创建、读取、更新和删除数据。以下是一些重要的HBase Shell操作命令及其详细说明...
在HBase中,HBase Shell是用于管理与操作HBase数据库的一个交互式命令行工具。以下是一些HBase Shell的基本操作命令的详细说明: 1. **创建表** (`create`): 使用`create`命令创建一个新的HBase表。例如: ``` ...
HBase Shell是HBase提供的交互式命令行工具,用于操作HBase表。以下是一些常用的HBase Shell命令: 1. **create**:创建表,如`create 'testTable', 'cf'` 创建一个名为testTable的表,包含一个列族cf。 2. **put*...
下面是基于标题“Hbase的shell基本操作”和描述“hadoop集群环境下hbase的shell基本操作命令”,结合给定的部分内容,所生成的详细知识点: 1. 进入HBase命令行: 通过命令`hbase shell`可以进入HBase的命令行界面...