- 浏览: 248130 次
- 性别:
文章分类
最新评论
登陆master机器
ssh-keygen -t rsa 生成密钥对
cp id_rsa.pub authorized_kyes
scp authorized_keys 从节点1:/home/xx/.ssh
scp authorized_keys 从节点2:/home/xx/.ssh
需要输入密码,不过输入一次密码之后以后就不用输入了
配置/etc/hosts
增加三台机器的信息:
IP master
IP slave1
IP slave2
IP slave3
三台机器都需要增加这份配置
配置$HADOOP_HOME\conf下的 hadoop-env.sh ,配置JAVA_HOME
export JAVA_HOME=.............
配置conf下的masters文件,将原内容删除,改为:
master
配置conf下的slaves文件,将原内容删除,改为:
slave1
slave2
slave3
配置conf/core-site.xml,增加如下内容:
<configuration>
<property>
<name>fs.default.name</name>>
<value>hdfs://master:12345</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/xxx/hdfstmp</value>
</property>
</configuration>
配置conf/hdfs-site.xml,增加如下内容:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:12345</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/xx/hdfstmp</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
在bin目录下执行./start-dfs.sh
如果启动成功,执行jps会显示
会出现NameNode和SecondaryNameNode,表示master节点启动正确,在slave,执行jps
出现DateNode说明也启动正确
再看一下监听的端口:
netstat -ano | grep 12345
出现监听的端口表示启动正确,如果在slave机器上telnet master机器的12345端口是可以连通的
输入:
http://master ip:50070/
则显示正确,可以看到name node的一些信息
配置hbase
配置 hbase-env.sh
export JAVA_HOME=.......
export HBASE_MANAGES_ZK=true 这个是使用hbase自带的zookeeper
配置regionservers,增加如下内容:
slave1
slave2
配置 hbase-site.xml,增加如下内容:
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:12345/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>zookeeper的ip</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data/xxxx</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
配置一个软连接
将hadoop_home\conf下的hdfs-site.xml引到hbase_home\conf下
在bin目录下执行./start-hbase.sh
然后用jps查看主从节点
输入:
ttp://master ip:60010/master-status
http://slave ip:60030/rs-status
则显示正确,可以看到master和数据节点的一些信息
ssh-keygen -t rsa 生成密钥对
cp id_rsa.pub authorized_kyes
scp authorized_keys 从节点1:/home/xx/.ssh
scp authorized_keys 从节点2:/home/xx/.ssh
需要输入密码,不过输入一次密码之后以后就不用输入了
配置/etc/hosts
增加三台机器的信息:
IP master
IP slave1
IP slave2
IP slave3
三台机器都需要增加这份配置
配置$HADOOP_HOME\conf下的 hadoop-env.sh ,配置JAVA_HOME
export JAVA_HOME=.............
配置conf下的masters文件,将原内容删除,改为:
master
配置conf下的slaves文件,将原内容删除,改为:
slave1
slave2
slave3
配置conf/core-site.xml,增加如下内容:
<configuration>
<property>
<name>fs.default.name</name>>
<value>hdfs://master:12345</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/xxx/hdfstmp</value>
</property>
</configuration>
配置conf/hdfs-site.xml,增加如下内容:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:12345</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/xx/hdfstmp</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
在bin目录下执行./start-dfs.sh
如果启动成功,执行jps会显示
会出现NameNode和SecondaryNameNode,表示master节点启动正确,在slave,执行jps
出现DateNode说明也启动正确
再看一下监听的端口:
netstat -ano | grep 12345
出现监听的端口表示启动正确,如果在slave机器上telnet master机器的12345端口是可以连通的
输入:
http://master ip:50070/
则显示正确,可以看到name node的一些信息
配置hbase
配置 hbase-env.sh
export JAVA_HOME=.......
export HBASE_MANAGES_ZK=true 这个是使用hbase自带的zookeeper
配置regionservers,增加如下内容:
slave1
slave2
配置 hbase-site.xml,增加如下内容:
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:12345/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>zookeeper的ip</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/data/xxxx</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
配置一个软连接
将hadoop_home\conf下的hdfs-site.xml引到hbase_home\conf下
在bin目录下执行./start-hbase.sh
然后用jps查看主从节点
输入:
ttp://master ip:60010/master-status
http://slave ip:60030/rs-status
则显示正确,可以看到master和数据节点的一些信息
发表评论
-
Hadoop-DataNode分析
2016-04-06 18:41 676HDFS主要流程 客户端创建到name ... -
Hadoop-远程过程调用
2015-06-15 16:46 548Hadoop IPC类图如下 ... -
HBase-cache相关
2015-04-09 15:03 658一些配置参数 hbase.lru.block ... -
HBase-压缩和分割原理
2015-03-31 11:33 611HRegionServer调用合并请求 主要逻 ... -
Hbase-HMaster架构
2015-03-24 19:21 2227HMaster的整体结构 一个master包含如下 ... -
Hadoop-balancer执行原理
2015-01-28 21:19 963核心类在 org.apache.h ... -
Hadoop-commons分析
2014-10-22 18:19 775hadoop的配置文件相关类 Configurati ... -
HBase-客户端请求
2014-05-27 19:46 1644客户端相关参数 参数 默认值 含义 ... -
HBase-服务端处理请求的过程
2014-05-19 19:19 2525Region的架构 HRegionSe ... -
HBase-打印日志内容分析
2014-05-15 17:14 970WARN org.apache.hadoop.hba ... -
HBase-遇到的问题
2014-05-15 16:43 2873rowlock release problem wi ... -
HBase-HFile的读写操作
2014-05-03 19:40 3373写入数据: public class Test ... -
HBase-WAL相关线程处理逻辑
2014-02-28 19:21 2147日志同步线程 HLog$L ... -
HBase-region server的线程
2014-02-28 19:19 48这个是用于和HDFS通讯的客户端线程 Daemon Th ... -
HBase-RegionServer架构
2014-02-28 19:06 4757RegionServer的整体结构 一个regio ... -
HBase-HLog分析
2014-02-08 17:37 2214HLog的全部实现在包: org.apache.hado ... -
HBase-HFile分析
2014-01-10 19:25 3278HFile的整体结构图如下: 整个HFile分四 ... -
HBase-线程调整
2013-08-20 17:14 770read线程数量 ipc.server.read.thread ... -
Hadoop-常用操作
2013-07-19 11:35 986使用URL的方式读取一个文件内容,需要设置一个handler工 ... -
Hadoop-常见问题
2013-07-05 12:50 636经典漫画讲解HDFS原理 http://blog.china ...
相关推荐
5.设置环境变量,新建系统变量,变量名:HADOOP_HOME,变量值:E:\apps\hadoop-2.7.7;编辑 Path 变量增加 %HADOOP_HOME%\bin,重启电脑 6.在cmd输入hdfs namenode -format,看到successfully就说明format成功 7.在E...
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
然而,通过特定的Windows适配器,如`winutils.exe`,用户可以在Windows系统上搭建Hadoop环境。 标题中的"apache-hadoop-3.1.0-winutils-master.zip"是一个针对Windows用户的Hadoop工具包,它包含了运行Hadoop所需的...
它提供了一系列的命令行工具,如设置Hadoop环境变量、启动HDFS服务、管理HDFS文件等。在Hadoop 3.1.3的bin目录下放置`hadoop-winutils.exe`,可以确保Windows系统上的Hadoop客户端能正常工作。 2. **hadoop.dll**:...
在eclipse中搭建hadoop环境,需要安装hadoop-eclipse-pulgin的插件,根据hadoop的版本对应jar包的版本,此为hadoop3.1.2版本的插件。
用户可以通过解压此文件,编译安装来搭建自己的Hadoop环境,进行分布式计算和数据存储。这个版本还包含了其他相关工具,如Hadoop命令行工具、Hadoop守护进程等,用于管理和操作Hadoop集群。 而hadoop-2.6.0-cdh...
Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理大量数据,是大数据处理领域的重要...通过下载并部署hadoop-2.7.3.tar.gz,用户可以搭建自己的Hadoop集群,从而应对大数据时代的挑战。
它包括了如设置Hadoop环境变量、管理HDFS(Hadoop分布式文件系统)以及提供Hadoop守护进程启动等基本功能。在Windows上搭建Hadoop开发或测试环境时,`winutils.exe`是不可或缺的一部分。 以下是`winutils.exe`在...
总的来说,`hadoop-common-2.7.3-bin-master`包含的`hadoop.dll`和`winutils.exe`对于在Windows系统上搭建和使用Hadoop环境至关重要。理解这两个文件的作用和配置方法,可以帮助开发者在非Linux环境下顺利进行Hadoop...
总之,"hadoop-3.3.1.tar.gz"安装包提供了完整的Hadoop环境,用户可以通过配置和启动服务来搭建自己的分布式计算平台,从而实现大规模数据处理和分析。了解其核心组件、新特性以及安装和使用方法,是掌握Hadoop的...
用户可以直接解压部署,无需自行编译,方便快速搭建Hadoop集群。 2. "hadoop-2.7.2-src.tar.gz" 这是Hadoop 2.7.2的源代码包,适合开发者或需要对Hadoop进行定制化修改的用户。通过源代码,用户可以理解Hadoop的工作...
2. **winutils.exe**: 这是Hadoop在Windows上的一个辅助工具,它提供了类似于Linux环境下hadoop命令的功能,例如设置HDFS的访问权限、管理HDFS文件、配置Hadoop环境等。在Linux上,这些功能通常由`hadoop`命令完成,...
通过对这个压缩包的理解和使用,用户可以在Windows平台上顺利搭建和运行Hadoop环境,进一步探索大数据处理的世界。 总之,Hadoop Common 2.7.1提供的bin目录工具对于Hadoop在Windows环境中的运行至关重要,尤其是...
在进行Hadoop编程时,通常需要搭建一个本地master环境,以便进行开发、测试和调试。Hadoop Common 2.6.0-bin-master.zip包含了搭建这种环境所需的所有文件和配置。 1. 安装步骤:首先,解压下载的zip文件,然后根据...
在Windows上搭建Hadoop环境时,往往需要将`winutils.exe`添加到系统路径,以便系统能够找到并执行这个工具。 Hadoop 2.2.0引入了一些重要改进,包括YARN(Yet Another Resource Negotiator)资源管理框架,这使得...
在给定的压缩包文件“hadoop-1.2.1-jar(全)”中,包含了Hadoop 1.2.1版本的多个重要组件的JAR包,这对于开发者和系统管理员在搭建、理解和使用Hadoop环境时非常关键。 1. **hadoop-core-1.2.1.jar**:这是Hadoop的...
三、单机模拟分布式Hadoop环境搭建 对于初学者来说,通过单机模拟分布式Hadoop环境是学习和理解Hadoop工作原理的有效方式。以下是一个简单的步骤指南: 1. **环境准备**:确保安装了Java环境,并设置好环境变量。 ...
这个压缩包“hadoop-2.7.7.zip”是专为Windows 7系统设计的Hadoop版本,使得用户在Windows环境下也能搭建本地的大数据处理环境。 在安装和运行Hadoop 2.7.7之前,确保你已经正确配置了Java环境是至关重要的。Java是...
总的来说,"hadoop-3.1.0-winutils-master(1).zip"提供的是一套适用于Windows的Hadoop工具,它使得在Windows环境中搭建和运行Hadoop集群成为可能。通过理解Hadoop的基本原理、WinUtils的作用以及如何配置和使用这些...
总结来说,“hadoop-2.5.2.tar.gz”是Hadoop 2.5.2版本的完整分发包,包含了Hadoop的核心组件、配置文件和文档,适用于搭建、学习和开发分布式大数据处理环境。用户可以通过下载、解压和配置这个压缩包,深入了解和...