Hbase -version 0.90.6
Hadoop -version 0.20.203
tar zxvf mysql.tar.gz -C /home/aaa
ssh: localhost: Name or service not known 是/etc/hosts在作怪。在/etc/hosts 没有localhost的解析,127.0.0.1 localhost # must be added
使用env命令显示所有的环境变量
Unpack the downloaded Hadoop distribution. In the distribution, edit the file conf/hadoop-env.sh to define at least JAVA_HOME to be the root of your Java installation.
Bad connection to FS. command aborted. 重新格式化NameNode就行了,01.hadoop namenode -format
NameNode中FsImage文件存放的是整个文件系统的名字空间,包括数据块到文件的映射、文件的属性
./bin/start-hbase.sh
./bin/hbase shell
$source 环境变量文件名 让环境变量生效不用重启
cat /proc/version 查看系统版本
java.io.FileNotFoundException: /home/Hadoop/hadoop-0.21.0/bin/../logs/SecurityAuth.audit (Permission denied)
-------------------------
配置HBase,到了最后一步,jps下,发现主节点上HMaster没有启动,在HBase log里有下面异常:
。。。
FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
。。。
Caused by: java.lang.ClassNotFoundException: org.apache.commons.configuration.Configuration
解决:从hadoop_home/lib下面cp一个commons-configuration-1.6.jar到hbase_home/lib下
---------------------------
还用hadoop目录下的hadoop-0.20.2-core.jar替换掉了hbase/lib目录下的hadoop-core-0.20-append-r1056497.jar ,否则会出现协议版本不一直的错误。
netstat -anp |grep 28754 查看端口状态
kill -9 28754 强制关闭端口进程
-------------------------------------
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
经试验后还是需要密码
ssh -vvv localhost
修改authorized_keys权限
chmod 644 ~/.ssh/authorized_keys
搞定..
--------------------------------
java.io.IOException: File /hbase/hbase.version could only be replicated to 0 nodes, instead of 1
datanode没有正常启动
配置core-site.xml如下
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/Hadoop/hadoop/data/${user.name}</value>
</property>
</configuration>
配置hdfs-site.xml如下
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/Hadoop/hadoop/data/hadoop/dfs/name</value>
</property>
</configuration>
解决了问题
------------------------------------
hadoop+hbase+zookeeper运行正常
分享到:
相关推荐
提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...
Hadoop+Zookeeper+Hbase安装配置使用.pdf
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境
为搭建Hadoop2.2+Zookeeper3.4.5+HBase0.96集群环境,需要至少3台Linux机器,建议使用Centos6.4 64位操作系统,每台机器建议配置不低于4G内存和10G磁盘空间。 软件方面,需要安装jdk-7u55-linux-x64.rpm、apache-...
根据提供的标题、描述、标签及部分内容链接,我们可以推断出这是一个关于大数据技术栈的培训课程,涉及的技术包括Hadoop、HBase、Zookeeper、Spark、Kafka、Scala以及Ambari。下面将针对这些技术进行详细的介绍和...
jdk1.8.0_131、apache-zookeeper-3.8.0、hadoop-3.3.2、hbase-2.4.12 mysql5.7.38、mysql jdbc驱动mysql-connector-java-8.0.8-dmr-bin.jar、 apache-hive-3.1.3 2.本文软件均安装在自建的目录/export/server/下 ...
大数据 hadoop spark hbase ambari全套视频教程(购买的付费视频)
- 配置HBase的`hbase-site.xml`以指定Zookeeper地址和集群模式。 - 启动HBase服务,包括Master和RegionServer。 3. **Spark**:Spark是一个快速、通用且可扩展的大数据处理引擎,支持批处理、交互式查询、流处理...
Hadoop+ZooKeeper+HBase+hive(HQL)安装步骤
| hadoop-node8 | *.*.83.8 | Hadoop Secondary Namenode/HBase HMaster/ZooKeeper | 三、硬件环境 在本文中,我们使用8台曙光服务器,每台服务器配置如下: * CPU:8核 * 硬盘:两个500GB硬盘 * 操作系统:SUSE ...
在配置完成后,启动各个服务,包括Hadoop的NameNode、DataNode、SecondaryNameNode、ResourceManager、NodeManager,Zookeeper服务器,以及HBase的Master和RegionServer。为了验证集群是否正常工作,你可以创建一个...
【标题】:“安装笔记:hadoop+hbase+sqoop2+phoenix+kerberos” 【描述】:在本文中,我们将探讨如何在两台云主机(实际环境可能需要三台或更多)上安装Hadoop、HBase、Sqoop2、Phoenix以及Kerberos的详细过程,...
安装HBase时,需要考虑集群的Zookeeper配置,因为Zookeeper用于协调HBase的各个组件。 Oozie是Hadoop的工作流调度器,用于管理Hadoop作业(包括MapReduce、Pig、Hive、Sqoop等)和Spark作业的调度。配置Oozie时,...
Hadoop生态系统包括Hadoop核心、Hadoop Common、分布式文件系统HDFS、MapReduce框架、并行数据分析语言Pig、列存储NoSQL数据库HBase、分布式协调器Zookeeper、数据仓库Hive以及Hadoop日志分析工具Chukwa等组件。...
【标题】"zookeeper+hadoop+hbase.rar" 提供了一个集成的大数据处理环境,其中包含了三个关键组件:Zookeeper、Hadoop和HBase。这些组件在大数据生态系统中扮演着重要角色,尤其对于分布式存储和计算。 【Zookeeper...
HBase利用Hadoop的HDFS作为底层存储,通过Zookeeper进行协调和服务发现,提供强一致性和高并发性能。 **Java API** 是Java编程语言提供的应用程序接口,允许开发者使用Java来访问和操作Hadoop和HBase的功能。对于...
大数据平台搭建之 Hadoop+Zookeeper+Hbase+Hive 部署指南 大数据平台搭建是指通过集成多种大数据处理技术,构建一个功能强大、可靠、高效的数据处理平台。本文档主要介绍如何部署 Hadoop、Zookeeper、Hbase、Hive ...
总结来说,搭建Hadoop2.7.3+HBase1.2.5+ZooKeeper3.4.6的分布式集群环境是一项复杂但关键的任务,它涉及多个组件的安装、配置和集成。通过这个过程,你可以掌握大数据处理的基础架构,并为后续的大数据应用开发打下...
Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase) 一、Hadoop HA高可用集群概述 在大数据处理中,高可用集群是非常重要的,Hadoop HA高可用集群可以提供高可靠性和高可用性,确保数据处理不中断。该集群由...