`

hadoop hive hbase shell小贴

 
阅读更多

纯笔记,勿看

 

集群迁移

 

hadoop distcp -D mapreduce.job.queuename=rtb  -D dfs.checksum.type=CRC32  hdfs://mycluster/hbase/data/default/table hdfs://ip161:8020/user/dirkzhang > report.log   2>&1 &

 

hadoop distcp hftp://nn.xxx.xx.com:50070/user/nlp/warehouse/t_m_user_key_action    /user/nlp/warehouse/dw1

 

hadoop hive 分区建立

alter table xxxx drop partition (logday='20150909',hour='12');

 

ALTER TABLE xxxx ADD IF NOT EXISTS PARTITION (day_id='20150908', hour_id='23') location 'hdfs://mycluster/data/stg/emaruser/20150908/23'; 

 

 

hadoop第三方jar包,多个

conf.set("tmpjars", "json-simple-1.1.1.jar,json-lib-2.4-jdk15.jar,ezmorph-1.0.6.jar");

 

hbase添加节点

1.修改环境变量,/etc/hosts文件,改变系统线程数,文件数
2.所有应用上加/etc/hosts文件
3.修改配置,修改hdfs-site.xml,改成本地数据磁盘
4.修改所有机子上slaves,和regionservers

 

 

删除zk日志的频率和保留几个文件

#clean freques
autopurge.purgeInterval=12
#clean size
autopurge.snapRetainCount=12

 

tachyon 启动 format

如果不想每次启动Tachyon都挂载一次RamFS,可以先使用命令 bin/tachyon-mount.sh Mount workers 或 bin/tachyon-mount.sh SudoMount workers 挂载好所有RamFS,然后使用 bin/tachyon-start.sh all NoMount 命令启动Tachyon。
		spark1.5对应版本tachyon0.7.1
		bin/tachyon format
		bin/tachyon-mount.sh SudoMount workers
		bin/tachyon-start.sh all NoMount
		bin/tachyon-stop.sh

 

 

linux jps显示不了进程

以下文件权限有误

/tmp/hsperfdata_userName

 

hadoop查看文件大小

hadoop fs -du -h

 

hive在建表的时候有时出现

Display all XXX possibilities? (y or n)

是因为tab键太多造成的

 

hbase创建表

create 'hotdog_adr_base', { NAME => 'cf', COMPRESSION => 'GZ'},{SPLITS => ['A','B','C','D','E','F','G','H','I','J','K','L','M','N','O','P','Q','R','S','T','U','V','W','X','Y','Z',

'a','b','c','d','e','f','g','h','i','j','k','l','m','n','o','p','q','r','s','t','u','v','w','x','y','z']}  

 

shell判断是否有参数

if [ $# -lt 2 ] ; then

  echo "期待2个参数"

  exit 1

fi

echo $1

echo $2

 

mysql命令

mysql -N -hl-an7.wap.cn6.qunar.com -P3306 -umobstat -p'xH!dmobstatsa!oSX' -e "

  use mobiledcs_ad;

  load data local infile '${BASE_PATH}/xxx_${logdate}.tmp' into table datatable(id,name,count)

" || exit

 

linux统计行数(上海出现多少次)

cat test2.txt | grep '上海' | wc -l

hhh出现行数

grep -c 'hhh' test.txt

 

 linux处理文件列awk

awk '{print $6}' test.txt 

 awk求和awk '{total+=$6}END{print total}' test.txt 

awk分组求和(按照$1分组,$6求和)awk '{a[$1]+=$6}END{for(i in a)print(i,a[i])}' test.txt 

 

linux测试本地机子是否可以连接 ip port

nc -z -v 192.168.44.37 80

 

 shell换行

echo -e  '\n'

 

linux 查看域名ip

nslookup l-rtools1.ops.cn8

 

hbase 执行命令

sudo -u hadoop echo "scan 'hbase:meta',{LIMIT=>1}"| hbase shell &> dump.txt

 

 python ide

pycrust

 

linux 进程

ps -ef | grep report

 

 linux 杀死一批相同类型的进程(grep -v grep是除了grep进程,$2就是pid)

kill -9 $(ps -ef|grep -E 'report|runrp'|grep -v grep|awk '{print $2}')

 

ps -ef|grep rolling-restart.sh | grep -v "grep" | awk -F " " '{print $2}' | xargs kill -9

 

 

 hadoop 指定集群拿数据

 sudo -uxxxxxx hadoop fs -fs ip:8020 -ls

 

shell在线编译sed

 sed -i '3 s/user/dirk/' td.txt  修改第三行 将user改为dirk ( -i是在当前文档上修改 )

 

 sed -n '3p' td.txt  打印第三行

 

获取第三行,第三列内容,用/隔开(cut 和 awk都可以获取列)

sed -n '3p' td.txt | cut -d "/" -f3 

sed -n '3p' td.txt | awk -F "/" '{print$3}'

awk -F "/" '{if(NR==3) print $3}' td.txt

 

 hbase shell建立分区表

create 'tb_splits', {NAME => 'cf', VERSIONS=> 3},{SPLITS => ['a','b','c']}

 

hive shell dll

 alter table dirktest add columns(nc string); 增加列

 alter table dirktest replace columns(aa string,bb string,order_count bigint); 删除列 

 

linux shell

获取父Pid 为$PPID

写入文件

_pp=$PPID

echo $_pp >>  /test/dirk.txt

 

hive shell

  1. MSCK REPAIR TABLE table_name;  

该命令会把没添加进partition的数据,都增加对应的partition。同步源数据信息metadata。

 

 linux 查看文件夹大小

du -h --max-depth=1 home/data

 

hadoop添加classpath

HADOOP_CLASSPATH=/home/hadoop-cdh/app/hbase-0.98.1-cdh5.1.0/lib/* hadoop jar  /home/hadoop-cdh/imgDownload/imgHbase.jar com.emar.nbt.hbase.mr.ImgDownloadTuanMR testProduct

 

 

linux shell 查看socket数

socket上线

ulimit -n

 socket使用

cat /proc/net/sockstat

 

linux 线程启动时间:

ps axo pid,ppid,comm,pmem,lstart | grep 4740

 

 

linux shell赋值

#if HBASE_HOME not empty,use HBASE_HOME,else use later one

#HBASE_HOME="${HBASE_HOME:-/home/hadoop-cdh/app/hbase-0.98.1-cdh5.1.0}"

 

mysql shell

授权 把mysqldb库的查询和更新权限赋给hadoopuser,hadoopuser的密码是hadooppwd

grant select,update on mysqldb.* to hadoopuser@localhost identified by 'hadooppwd';

grant all on testdb.* to common_user@'%'

 

 

linux中远程连接(如SSH)出现someone could be eavesdropping on you right now的解决办法

今天用SSH连接我的远程主机,出现了以下错误:

IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY!

Someone could be eavesdropping on you right now (man-in-the-middle attack)!

网上查了一下,用

rm -rf .ssh/known_hosts

删除主机列表就行了。

 

观察进行gc情况

 jstat -gc pid

 jstat -gcutil pid 1000

 

zk命令

sh bin/zkServer.sh start

sh bin/zkServer.sh status

sh bin/zkServer.sh stop

sh bin/zkServer.sh restart

 

sh bin/zkCli.sh -server hostxxx:2181

 

sh bin/zkServer.sh status

 

-------------------------------------

hbase balance

sh $HADOOP_HOME/bin/start-balancer.sh –t 10%

 

linux启动时间

date -d "$(awk -F. '{print $1}' /proc/uptime) second ago" +"%Y-%m-%d %H:%M:%S"

who -b

 

 dns文件

 /etc/resolv.conf
vim替换
:%s/aaa/bbb/g

 

shell if判断是否为空

para1=
if [ ! -n $para1 ]; then
  echo "IS NULL"
else
  echo "NOT NULL"
fi 

 

 

 

分享到:
评论

相关推荐

    hadoop hbase hive 伪分布安装

    - **HBase Shell**:通过`hbaseshell`进入HBase的交互式Shell,可以执行创建表、查询数据等操作。 综上所述,完成Hadoop、HBase和Hive的伪分布安装涉及多个步骤,包括软件包的安装、环境变量的设置、配置文件的编辑...

    hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结

    ### hadoop2.2+hbase0.96+hive0.12安装整合详细高可靠文档及经验总结 #### 一、Hadoop2.2的安装 **问题导读:** 1. Hadoop的安装需要安装哪些软件? 2. Hadoop与HBase整合需要注意哪些问题? 3. Hive与HBase的...

    Hadoop之Hbase从入门到精通 .doc

    * HBase Shell:HBase 的命令行工具,最简单的接口,适合 HBase 管理使用。 * Thrift Gateway:利用 Thrift 序列化技术,支持 C++、PHP、Python 等多种语言,适合其他异构系统在线访问 HBase 表数据。 * REST ...

    Hadoop之Hbase从入门到精通

    7. **强大的访问接口**:包括Java API、HBase Shell、Thrift Gateway、REST Gateway、Pig和Hive等,覆盖了多种编程语言和场景需求。 **HBase数据模型** HBase的数据模型由Table、Row Key、Timestamp和Column ...

    大数据云计算技术系列 Hadoop之Hbase从入门到精通(共243页).pdf

    Client提供了多种访问接口,包括Java API、Shell命令、RESTful API等,方便用户与HBase交互。Zookeeper是集群的协调者,负责元数据管理、选举HMaster以及监控HRegionServer的状态。HMaster负责表的元数据管理、区域...

    清华大学精品大数据实战课程(Hadoop、Hbase、Hive、Spark)PPT课件含习题(59页) 第3章 Hadoop数据库HBase.pptx

    HBase,作为Hadoop生态系统中的分布式列式数据库,是为处理大规模数据而设计的。本章节将深入探讨HBase的体系架构、数据模型以及其实现方式,帮助读者理解其核心概念和应用场景。 1. **HBase体系架构** HBase的...

    基于hadoop,hbase的youtube简单模拟项目源码

    这些操作可能通过HBase的Java API或者HBase Shell来完成。 7. **数据流处理**:可能使用Hadoop的其他工具,如Pig或Hive,来进行复杂的数据分析和报表生成。这些工具简化了对Hadoop集群的数据操作,使非程序员也能...

    hadoop2.2+hbase0.96+hive0.12 安装文档

    从提供的文件信息中,我们可以总结出关于Hadoop、HBase和Hive集成安装的知识点,涉及环境配置、版本兼容性、文件权限、通信机制等多个方面。 首先,Hadoop2.2的安装需要配置SSH无密码互通,安装JDK以及编写Shell...

    Hive数据导入HBase的方法.docx

    Hive 是一个基于 Hadoop 的数据仓库工具,而 HBase 是一个基于 Hadoop 的 NoSQL 数据库。它们都是大数据处理的重要组件。在数据处理过程中,经常需要将数据从 Hive 导入到 HBase 中。本文将详细介绍 Hive 数据导入 ...

    hadoop hive入门学习总结

    Hadoop Hive 是一个基于 ...通过以上步骤,你已经成功入门了Hadoop Hive,可以进一步学习Hive的数据类型、函数、分区、桶等高级特性,以及如何与其他Hadoop组件如HBase、Spark等集成,以实现更高效的数据处理和分析。

    Hadoop之Hbase从入门到精通.doc

    2. HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用 3. Thrift Gateway:利用Thrift序列化技术,支持C++、PHP、Python等多种语言,适合其他异构系统在线访问HBase表数据 4. REST Gateway:支持...

    大数据基础面试题hadoop,zookeeper,hbase,hive,spark,kafka,flink,clickhouse

    例如,Hadoop 的数据块大小设置、Zookeeper 的会话超时机制、HBase 的 Region 分裂、Hive 的分区表设计、Spark 的容错机制、Kafka 的生产者消费者模型、Flink 的状态持久化和ClickHouse 的索引策略等都是常见的面试...

    Hadoop之HBase简介

    6. **Hive**:虽然早期版本不直接支持HBase,但在后续版本(如0.7.0)中,Hive可以通过类似SQL的语言来访问HBase。 HBase的数据模型包括Table、Column Family、Row Key和Timestamp: - **Row Key**:作为表的主键...

    大数据全套安装包:包括hadoop-3.1.1、hbase-2.2.3、hive-3.1.2、zookeeper-3.5.6

    在实际操作中,用户还需要了解如何使用Hadoop的命令行工具进行数据操作,如hadoop fs命令用于与HDFS交互,hbase shell用于与HBase数据库交互,hive命令行则用于执行HQL(Hive SQL)查询。此外,熟悉YARN(Yet ...

    hadoop hbase从入门到精通

    同时,HBase与Hive、Pig等其他Hadoop生态工具的协同工作也是数据分析的重要环节。HBase Shell是进行日常管理操作的命令行工具,熟悉其命令对于日常运维至关重要。 在精通阶段,你需要掌握如何进行性能调优,包括...

    完整版大数据云计算课程 Hadoop数据分析平台系列课程 Hadoop 07 Hbase 共49页.rar

    7. **HBase与Hadoop的集成**:HBase可以与Hadoop的其他组件(如Hive、Pig等)无缝集成,进行复杂的数据分析和处理。 学习这个课程,你将了解到如何规划和设计HBase表结构,如何进行数据建模以适应HBase的特性,以及...

Global site tag (gtag.js) - Google Analytics