- 浏览: 1212250 次
- 性别:
- 来自: 深圳
文章分类
- 全部博客 (1027)
- 拼接字符串小技巧 (1)
- JAVA 模块知识小结 (23)
- Tools (14)
- Android (20)
- ExtJS必学必会 (1)
- Nginx (4)
- 中间件 (9)
- java中间件 (6)
- linux (47)
- 23种设计模式 (15)
- 数据库知识 (15)
- Mycat中间件 (80)
- 华为框架--jalor5 (2)
- 数据库-----DB2 (24)
- 数据库-----ORACLE (47)
- 数据库-----MYSQL (82)
- 大数据 (16)
- 大数据--HBASE (4)
- 大数据--Storm (9)
- 大数据--Hive (5)
- 大数据--Hadoop (11)
- 大数据--ElasticSearch (16)
- 大数据--ZooKeeper (13)
- 大数据--redis (17)
- 大数据--Kafka (26)
- 大数据--MongoDB (9)
- 大数据之Flume (4)
- 大数据--sqoop (3)
- 大数据--SPARK (7)
- 大数据--memcached (1)
- 大数据------Impala (1)
- 大数据--Avro (1)
- 大数据--Apache Pig (1)
- 大数据--Logstash (1)
- 大数据--Kibana 简介 (1)
- 大数据之Impala (1)
- 大数据之Druid-IO介绍 (1)
- 大数据之HUE (1)
- 大数据之Ambari (1)
- 大数据之Presto (1)
- 大数据之Oozie (1)
- 编程语言之Python (4)
- 编程语言--PHP (5)
- 编程语言--Scala (2)
- 编程语言--JAVA之Mybatis (26)
- 编程语言之Ruby (2)
- 编程语言之C (2)
- 编程语言--JAVA之Spring (7)
- 编程语言--JAVA之Struts (1)
- 编程语言JAVA Hibernate (6)
- 编程语言之Kotlin (1)
- 编程语言--JAVA之网络编程 (3)
- 编程语言之Go (3)
- 编程语言之Erlang (1)
- erlang语言 (1)
- 算法研究--查找 (8)
- 算法研究--排序 (10)
- 网络协议 (47)
- 版本控制工具 (6)
- JAVA基础知识 (20)
- 负载均衡 (14)
- Hessian (1)
- 阿里之RocketMQ (5)
- 阿里之Canal (2)
- 阿里之TDDL (1)
- 阿里之DRDS (1)
- 阿里Dubbo框架 (2)
- 阿里JStorm框架 (3)
- 阿里之yugong (2)
- 阿里之Druid框架 (3)
- 阿里之cobar (1)
- Docker (17)
- VPN虚拟专网 (1)
- JFinal (1)
- JAVA语言基础 (23)
- HAProxy简介 (5)
- Netty介绍 (1)
- Squid介绍 (1)
- ZeroMQ (1)
- JVM深入研究 (4)
- Kerberos (1)
- Shiro (1)
- R语言 (2)
- CAS (2)
- Spring Security (1)
- 虚拟化技术 (10)
- python (2)
- Wireshark (1)
- JAVA_WEB 开发 (6)
- I/O模型 (1)
- Apache Mina (1)
- Apache Solr (2)
- Apache Nutch (1)
- Apache nifi (1)
- Apache Phoenix (1)
- Apache Thrift (1)
- Apache --Groovy (2)
- Apache Tika (1)
- Apache JMeter (1)
- Apache 之CouchDB (1)
- Apache之XML-RPC (1)
- 读书笔记 (4)
- 统计分析系统--SAS (1)
- Java Applet (1)
- JAVA之XStream (1)
- java之FreeMarker (1)
- JAVA 之WebWork (1)
- JAVA之velocity 介绍 (1)
- JAVA之Excel的导入(出) (4)
- Node.js (1)
- 信息安全 (2)
- Flex 编程 (1)
- 大数据--Alluxio (1)
- Jenkins (1)
- XDoclet (1)
- Play 框架 (1)
- ESB (2)
- JAVA之SiteMesh (1)
- JAVA 之Tiles (1)
- JAVA之工作流系统 (5)
- Apache之Tajo (1)
- 搜索引擎知识 (1)
- Apache 之Chukwa (1)
- Apache 之 ActiveMQ (2)
- Apache 之Accumulo (1)
- Apache之Lucene (2)
- Apache S4 (2)
- Apache之Tez (1)
- Apache之TOMCAT (3)
- Apache Kylin (1)
- Apache 之Ivy (1)
- Apache之Mesos (1)
- Zenoss (1)
- 阿里妈妈-adhoc之mdrill (1)
- 分布式调用 (5)
- RPC之Zeroc ICE (3)
- Java之RMI (1)
- RPC框架之Apache-XML (1)
- 人工智能系统 (10)
- 构建工具Maven (6)
- 持续集成 (1)
- 缓存技术 (8)
- 数据库之SequoiaDB (1)
- 数据分析 (2)
- 自然语言处理 (10)
- 数据库----MariaDB (1)
- 压缩算法 (2)
- 消息队列之LMAX Disruptor (1)
- 分布式文件系统DFS (1)
- Kubernetes (1)
- 自动化部署框架 (2)
- 分布式文件系统Tachyon (1)
- OpenCV (1)
- 数据库--db4o (1)
- 任务调度--Azkaban (1)
- 消息队列 (3)
- Apache 之 Flink (1)
- 消息队列,StormMQ (1)
- 图形数据库 (1)
- Zuul (1)
- 网站加速 (1)
- CDN (1)
- 数据库之PostgreSQL (2)
- CQRS 命令查询职责分离模式 (1)
- CoreOS--ETCD (1)
- 工作流引擎--Snaker (1)
- HPCC (1)
- 数据库之Greenplum (1)
- 监控系统 (8)
- Neo4j (1)
- Apache之Calcite (1)
- 大数据分享 (4)
- 人工智能分享 (10)
- Apache 之Camel (1)
- Apache之 Crunch (1)
- 分布式缓存 (7)
- Apache 之Etch (1)
- Apache之 Karaf (1)
- Apache 之ODE (1)
- Eclipse安装插件 (1)
- Apache之Qpid (1)
- Apache 之Ranger (1)
- Apache 之Flink (1)
- Apache 之Lens (1)
- Apache之Zeppelin (1)
- Apache 之Mahout (1)
- Apache之 Samza (1)
- Apache 之VCL (1)
- Apache 之Synapse (1)
- Apache 之ORC (1)
- apache之Tapestry (1)
- 射频识别 (2)
- JAVA框架之spark (1)
- Web服务器 Tengine (1)
- web服务器之kangle (1)
- 全文检索 (1)
- Java开发框架之Ninja (1)
- Spring-Boot (2)
- 操作系统底层 (1)
- Java之Web框架Vert.x (1)
- JAVA之NIO框架 (1)
- CORBA (2)
- 敏感词过滤 (1)
- 前端语言 (18)
- 事处理务 (2)
- 网络爬虫 (1)
- 复杂SQL案例 (3)
- 经典理论 (1)
- 容器集群管理系统 (1)
- 代理服务器 (1)
- 微服务框架 (8)
- 编程语言--JAVA之Web (4)
- 存储知识 (2)
- 报表技术 (12)
- Tomcat专题研究 (7)
- 网络知识 (2)
- Web服务器 之WebLogic (2)
- 编程语言--JAVA之Email (5)
- Apache 之Velocity (1)
- java之Javassist (1)
- JAVA之工作流 (3)
- JAVA之Undertow (1)
- JAVA之Grizzly (1)
- java之Spray (1)
- JAVA之验证码 (8)
- JAVA之序列化 (1)
- JAVA 之RESTful (1)
- XML解析 (5)
- RPC框架之Motan (1)
- 数据库之ArangoDB (1)
- 【lanproxy】 (1)
- 【RPC框架之RPCX】 (1)
- RPC框架之gRPC (1)
- JavaWeb之G4Studio (1)
- 区块链 (1)
- Sphinx (1)
- 跟踪系统 (1)
- 多租户 (1)
- 大数据之数据采集应用 (2)
- JAVA 之文件操作 (10)
- 软件测试 (1)
- Apache 之DistributedLog (1)
- Apache 之 Ignite (1)
- 分布式配置中心 (1)
- 【SaaS 介绍】 (1)
- 【数据库之ArangoDB】 (1)
- 【数据处理之ETL】 (1)
- Undertow (1)
- JAX-RS (1)
- 【百度云消息推送】 (1)
- IOS (7)
- Kannel (1)
- ServiceComb (1)
- 微信 (2)
- 规则引擎 (1)
- 短地址 (1)
- Exam (1)
- FastDFS (1)
- Arthas (0)
- 阿里之Arthas (1)
- 阿里之Seata (1)
- 微服务 (1)
- 分布式事务 (1)
- Flink (2)
- Apache-Ranger (1)
- azkaban (1)
- Intellij Idea (1)
- Apache DolphinScheduler (3)
- PMP项目管理 (1)
- sentry介绍 (1)
- 堡垒机 (1)
- 对象存储服务简介 (1)
- prometheus (1)
- Hazelcast (1)
- dolphinscheduler (1)
- PMP (1)
- 数据库之ClickHouse (2)
- Telegraf (1)
- apache之Dolphinscheduler (1)
最新评论
-
gaojingsong:
jstl1point0 写道高级版本JDK可以直接安装不用配置 ...
【win7配置jdk 环境变量】 -
jstl1point0:
高级版本JDK可以直接安装不用配置了
【win7配置jdk 环境变量】 -
hdd901002:
光说明错误在哪里有什么用,解决方法啊。。。我也碰到了,一条jo ...
Mycat源码解读--错误之【can't find table define in schema 】 -
masuweng:
【JAVA之图片水印】 -
masuweng:
【JAVA之多线程下载文件实现】
1、解压缩: tar -zxvf hbase-0.94.7-security.tar.gz
2、改目录名 mv hbase-0.94.7-security hbase
3、设置HBASE_HOME环境变量
vi /etc/profile
4、修改conf/hbase.env中hbase-env.sh中的如下属性:
export JAVA_HOME=/usr/java/jdk1.6
export HBASE_MANAGES_ZK=true
5、修改hbase-site.xml文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop0:9000/hbase</value> >
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
6、启动顺序:先启动Hadoop——>再启动Hbase,关闭顺序:先关闭Hbase——>再关闭Hadoop
启动Hadoop: start-all.sh
启动Hbase: start-hbase.sh
7、停止顺序,关闭顺序:先关闭Hbase——>再关闭Hadoop
先停止hbase
stop-hbase.sh
再停止hadoop
stop-all.sh
启动过程
[root@hadoop0 bin]# start-all.sh
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-namenode-hadoop0.out
localhost: starting datanode, logging to /opt/hadoop/libexec/../logs/hadoop-root-datanode-hadoop0.out
localhost: starting secondarynamenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-secondarynamenode-hadoop0.out
starting jobtracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-jobtracker-hadoop0.out
localhost: starting tasktracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-tasktracker-hadoop0.out
[root@hadoop0 bin]# jps
3069 Jps
3039 TaskTracker
2849 SecondaryNameNode
2918 JobTracker
2743 DataNode
2648 NameNode
[root@hadoop0 ~]# start-hbase.sh
localhost: starting zookeeper, logging to /opt/hbase/bin/../logs/hbase-root-zookeeper-hadoop0.out
starting master, logging to /opt/hbase/logs/hbase-root-master-hadoop0.out
localhost: starting regionserver, logging to /opt/hbase/bin/../logs/hbase-root-regionserver-hadoop0.out
[root@hadoop0 ~]# jps
3472 HMaster
3039 TaskTracker
2849 SecondaryNameNode
2918 JobTracker
3595 HRegionServer
2743 DataNode
2648 NameNode
3664 Jps
3427 HQuorumPeer
Hbase进程 HMaster HRegionServer HQuorumPeer
停止过程:
[root@hadoop0 ~]# stop-hbase.sh
stopping hbase..............
localhost: stopping zookeeper.
[root@hadoop0 ~]# stop-all.sh
Warning: $HADOOP_HOME is deprecated.
stopping jobtracker
localhost: stopping tasktracker
stopping namenode
localhost: stopping datanode
localhost: stopping secondarynamenode
[root@hadoop0 ~]#
2、改目录名 mv hbase-0.94.7-security hbase
3、设置HBASE_HOME环境变量
vi /etc/profile
4、修改conf/hbase.env中hbase-env.sh中的如下属性:
export JAVA_HOME=/usr/java/jdk1.6
export HBASE_MANAGES_ZK=true
5、修改hbase-site.xml文件
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop0:9000/hbase</value> >
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
</configuration>
6、启动顺序:先启动Hadoop——>再启动Hbase,关闭顺序:先关闭Hbase——>再关闭Hadoop
启动Hadoop: start-all.sh
启动Hbase: start-hbase.sh
7、停止顺序,关闭顺序:先关闭Hbase——>再关闭Hadoop
先停止hbase
stop-hbase.sh
再停止hadoop
stop-all.sh
启动过程
[root@hadoop0 bin]# start-all.sh
Warning: $HADOOP_HOME is deprecated.
starting namenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-namenode-hadoop0.out
localhost: starting datanode, logging to /opt/hadoop/libexec/../logs/hadoop-root-datanode-hadoop0.out
localhost: starting secondarynamenode, logging to /opt/hadoop/libexec/../logs/hadoop-root-secondarynamenode-hadoop0.out
starting jobtracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-jobtracker-hadoop0.out
localhost: starting tasktracker, logging to /opt/hadoop/libexec/../logs/hadoop-root-tasktracker-hadoop0.out
[root@hadoop0 bin]# jps
3069 Jps
3039 TaskTracker
2849 SecondaryNameNode
2918 JobTracker
2743 DataNode
2648 NameNode
[root@hadoop0 ~]# start-hbase.sh
localhost: starting zookeeper, logging to /opt/hbase/bin/../logs/hbase-root-zookeeper-hadoop0.out
starting master, logging to /opt/hbase/logs/hbase-root-master-hadoop0.out
localhost: starting regionserver, logging to /opt/hbase/bin/../logs/hbase-root-regionserver-hadoop0.out
[root@hadoop0 ~]# jps
3472 HMaster
3039 TaskTracker
2849 SecondaryNameNode
2918 JobTracker
3595 HRegionServer
2743 DataNode
2648 NameNode
3664 Jps
3427 HQuorumPeer
Hbase进程 HMaster HRegionServer HQuorumPeer
停止过程:
[root@hadoop0 ~]# stop-hbase.sh
stopping hbase..............
localhost: stopping zookeeper.
[root@hadoop0 ~]# stop-all.sh
Warning: $HADOOP_HOME is deprecated.
stopping jobtracker
localhost: stopping tasktracker
stopping namenode
localhost: stopping datanode
localhost: stopping secondarynamenode
[root@hadoop0 ~]#
相关推荐
总的来说,搭建Hadoop、HBase、Spark和Hive集群涉及多个步骤,包括安装、配置、启动以及验证。整个过程需要对大数据处理原理有深入理解,并熟悉Linux系统的操作。完成后,这个集群可以处理大量数据,支持实时查询和...
大数据架构指的是支撑大数据处理的系统结构,而算法则是处理大数据时使用的一系列计算步骤和方法。《大数据日知录:架构与算法》这本书籍很可能围绕这些主题进行讲解。 首先,从架构的角度来看,大数据架构主要包含...
- 完成上述步骤后,HBase已经准备就绪,可以进行数据的读写操作。HBase的基本操作包括创建表、插入数据、查询数据等。 - 通过HBase的Shell或编程接口(如Java API)与HBase交互,实现数据的增删改查。 - 实验报告...
通过以上步骤,你就成功地在Java大数据环境中搭建了一个HBase集群,并配置了监控页面,可以进行实时监控和管理。后续还可以根据需求进行更多高级配置和优化,如设置Region分裂策略、调优性能等。
在安装HBase 1.2.6时,首先需要一个基础的Hadoop环境,包括HDFS和YARN。以下是基本步骤: 1. **准备环境**:确保系统已经安装了Java开发环境(JDK),并配置好环境变量。 2. **下载HBase**:从官方网站获取HBase ...
在安装HBase 0.90.5时,你需要先确保你的环境已经正确安装了Hadoop 0.20.2。安装步骤通常包括以下几个关键部分: 1. **解压**:将下载的`hbase-0.90.5.tar.gz`解压到指定目录。 2. **配置**:编辑`conf/hbase-site....
3. **大数据组件**:安装脚本会自动下载并安装各种大数据组件,例如Hadoop分布式文件系统(HDFS)、YARN资源管理系统、HBase数据库、Hive数据仓库、Spark计算引擎等。这些组件的安装通常涉及到解压、配置、移动到...
在IT行业中,大数据处理与分析是至关重要的领域,而Hadoop和HBase是其中的两大核心组件。...通过实践这些步骤,用户可以搭建起一个运行良好的Hadoop-HBase环境,为后续的大数据操作和分析奠定基础。
《大数据之路:阿里巴巴大数据实践》这本书深入探讨了阿里巴巴在大数据领域的实践经验,对于了解和学习大数据技术,特别是如何在实际业务中应用,具有很高的参考价值。阿里巴巴作为全球领先的技术公司,其大数据处理...
在本文中,我们将详细讲解Hbase的安装过程以及基本操作,特别针对在Linux环境下使用清华大学镜像进行下载的情况。Hbase是一个分布式的、面向列的数据库,常用于大数据存储,是Apache Hadoop生态系统的一部分。以下是...
实验环境准备是指安装和配置Linux、MySQL、Hadoop、HBase、Hive、Sqoop和R等系统和软件。数据集上传到Hive是指将文本文件的数据集上传到Hive数据仓库中。Hive数据分析是指使用Hive对数据进行查询和分析。Hive、MySQL...
7. **Hadoop安装与配置**:学习如何在本地或集群环境下搭建Hadoop环境,包括配置Hadoop的环境变量、初始化HDFS、启动和停止服务等。 8. **数据处理实践**:通过实例演示如何使用Hadoop处理数据,如使用MapReduce...
本文将详细介绍如何基于已有的Hadoop集群环境安装并配置HBase,以便更高效地管理与访问数据。 #### 二、HBase简介 HBase是一款构建于Hadoop之上的分布式列式存储系统,其设计灵感来源于Google的BigTable论文。HBase...
第二章《Hadoop集群的搭建及配置》深入探讨了如何在实际环境中部署和配置Hadoop集群。这一章将涵盖硬件需求、虚拟化技术的应用、Hadoop的安装步骤,以及配置文件的修改,包括core-site.xml、hdfs-site.xml和mapred-...
- Hadoop伪分布式安装包括创建用户、修改主机名与域名映射、配置SSH免密登录、安装Java环境、设置Hadoop配置文件以及初始化和启动集群。 - SSH免密码登录的基本原理涉及到Client与Server的交互,其中Client将自己...
虽然这里未详细描述Spark的安装步骤,但通常需要下载Spark压缩包,解压并配置环境变量,同时确保与Hadoop版本兼容。 Miniconda是一个轻量级的Anaconda发行版,用于管理Python科学计算环境。它可以帮助轻松安装和...
HBase的安装部署主要包括Zookeeper的部署、Hadoop的部署、HBase的解压等步骤。 2.1.1 Zookeeper部署 首先保证Zookeeper集群的正常部署并启动,Zookeeper是HBase的依赖组件,用于提供高可用、分布式锁、配置管理等...
【标题】"zookeeper+hadoop+hbase.rar" 提供了一个集成的大数据处理环境,其中包含了三个关键组件:Zookeeper、Hadoop和HBase。这些组件在大数据生态系统中扮演着重要角色,尤其对于分布式存储和计算。 【Zookeeper...
**HBase** 是一个基于Hadoop的非关系型数据库(NoSQL),它提供了实时的、随机访问大数据的能力。HBase采用列族存储模式,适合处理稀疏的数据,支持实时读写,并且高度可扩展。它与HDFS集成,确保了数据的高可用性和...
在Windows系统中安装和配置Hadoop和Hbase,是为了建立起一个适合单机测试和开发的本地大数据环境。Hadoop是一个由Apache基金会开发的开源框架,用于存储和处理大规模数据,它通过可靠的分布式存储(HDFS)和分布式...