`

Hadoop-环境搭建

 
阅读更多
登陆master机器
ssh-keygen -t rsa     生成密钥对
cp id_rsa.pub authorized_kyes
scp authorized_keys 从节点1:/home/xx/.ssh       
scp authorized_keys 从节点2:/home/xx/.ssh

需要输入密码,不过输入一次密码之后以后就不用输入了


配置/etc/hosts
增加三台机器的信息:

IP master
IP slave1
IP slave2
IP slave3

三台机器都需要增加这份配置


配置$HADOOP_HOME\conf下的 hadoop-env.sh ,配置JAVA_HOME
export JAVA_HOME=.............


配置conf下的masters文件,将原内容删除,改为:
master

配置conf下的slaves文件,将原内容删除,改为:
slave1
slave2
slave3

配置conf/core-site.xml,增加如下内容:
<configuration>
    <property>
        <name>fs.default.name</name>>
        <value>hdfs://master:12345</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/xxx/hdfstmp</value>
    </property>
</configuration>


配置conf/hdfs-site.xml,增加如下内容:
<configuration>
    <property>
        <name>fs.default.name</name>
        <value>hdfs://master:12345</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/xx/hdfstmp</value>
    </property>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>


在bin目录下执行./start-dfs.sh
如果启动成功,执行jps会显示
会出现NameNode和SecondaryNameNode,表示master节点启动正确,在slave,执行jps
出现DateNode说明也启动正确

再看一下监听的端口:
netstat -ano | grep 12345
出现监听的端口表示启动正确,如果在slave机器上telnet master机器的12345端口是可以连通的

输入:
http://master ip:50070/
则显示正确,可以看到name node的一些信息




配置hbase
配置 hbase-env.sh
export JAVA_HOME=.......
export HBASE_MANAGES_ZK=true         这个是使用hbase自带的zookeeper


配置regionservers,增加如下内容:
slave1
slave2


配置 hbase-site.xml,增加如下内容:
    <property>
        <name>hbase.rootdir</name>
        <value>hdfs://master:12345/hbase</value>
    </property>       
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>       
    <property>
        <name>hbase.zookeeper.quorum</name>
        <value>zookeeper的ip</value>
    </property>       
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/data/xxxx</value>
    </property>       
    <property>
        <name>hbase.master.maxclockskew</name>
        <value>180000</value>
    </property>
    <property> 
         <name>hbase.zookeeper.property.clientPort</name> 
         <value>2181</value>
    </property> 

配置一个软连接
将hadoop_home\conf下的hdfs-site.xml引到hbase_home\conf下

在bin目录下执行./start-hbase.sh
然后用jps查看主从节点
输入:
ttp://master ip:60010/master-status
http://slave ip:60030/rs-status
则显示正确,可以看到master和数据节点的一些信息


分享到:
评论

相关推荐

    hadoop-2.7.7单机win7或win10搭建完整包

    5.设置环境变量,新建系统变量,变量名:HADOOP_HOME,变量值:E:\apps\hadoop-2.7.7;编辑 Path 变量增加 %HADOOP_HOME%\bin,重启电脑 6.在cmd输入hdfs namenode -format,看到successfully就说明format成功 7.在E...

    hadoop-eclipse-plugin-3.3.1.jar

    Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar

    hadoop插件apache-hadoop-3.1.0-winutils-master.zip

    然而,通过特定的Windows适配器,如`winutils.exe`,用户可以在Windows系统上搭建Hadoop环境。 标题中的"apache-hadoop-3.1.0-winutils-master.zip"是一个针对Windows用户的Hadoop工具包,它包含了运行Hadoop所需的...

    apache-hadoop-3.1.3-winutils-master.zip

    它提供了一系列的命令行工具,如设置Hadoop环境变量、启动HDFS服务、管理HDFS文件等。在Hadoop 3.1.3的bin目录下放置`hadoop-winutils.exe`,可以确保Windows系统上的Hadoop客户端能正常工作。 2. **hadoop.dll**:...

    hadoop-eclipse-plugin-3.1.2.jar

    在eclipse中搭建hadoop环境,需要安装hadoop-eclipse-pulgin的插件,根据hadoop的版本对应jar包的版本,此为hadoop3.1.2版本的插件。

    hadoop-2.6.0.tar.gz&hadoop-2.6.0-cdh5.16.2.tar.gz

    用户可以通过解压此文件,编译安装来搭建自己的Hadoop环境,进行分布式计算和数据存储。这个版本还包含了其他相关工具,如Hadoop命令行工具、Hadoop守护进程等,用于管理和操作Hadoop集群。 而hadoop-2.6.0-cdh...

    hadoop-2.7.3.tar.gz 下载 hadoop tar 包下载

    Hadoop是Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理大量数据,是大数据处理领域的重要...通过下载并部署hadoop-2.7.3.tar.gz,用户可以搭建自己的Hadoop集群,从而应对大数据时代的挑战。

    apache-hadoop-3.1.0-winutils-master.zip

    它包括了如设置Hadoop环境变量、管理HDFS(Hadoop分布式文件系统)以及提供Hadoop守护进程启动等基本功能。在Windows上搭建Hadoop开发或测试环境时,`winutils.exe`是不可或缺的一部分。 以下是`winutils.exe`在...

    hadoop-common-2.7.3-bin-master包含hadoop.dll、winutils.exe

    总的来说,`hadoop-common-2.7.3-bin-master`包含的`hadoop.dll`和`winutils.exe`对于在Windows系统上搭建和使用Hadoop环境至关重要。理解这两个文件的作用和配置方法,可以帮助开发者在非Linux环境下顺利进行Hadoop...

    hadoop-3.3.1.tar.gz

    总之,"hadoop-3.3.1.tar.gz"安装包提供了完整的Hadoop环境,用户可以通过配置和启动服务来搭建自己的分布式计算平台,从而实现大规模数据处理和分析。了解其核心组件、新特性以及安装和使用方法,是掌握Hadoop的...

    hadoop-2.7.2资源

    用户可以直接解压部署,无需自行编译,方便快速搭建Hadoop集群。 2. "hadoop-2.7.2-src.tar.gz" 这是Hadoop 2.7.2的源代码包,适合开发者或需要对Hadoop进行定制化修改的用户。通过源代码,用户可以理解Hadoop的工作...

    hadoop-2.6.0 windows版本,bin目录包括hadoop.dll winutils.exe hadoop-2.6.0\bin

    2. **winutils.exe**: 这是Hadoop在Windows上的一个辅助工具,它提供了类似于Linux环境下hadoop命令的功能,例如设置HDFS的访问权限、管理HDFS文件、配置Hadoop环境等。在Linux上,这些功能通常由`hadoop`命令完成,...

    hadoop-common-2.7.1-bin-master-master.zip

    通过对这个压缩包的理解和使用,用户可以在Windows平台上顺利搭建和运行Hadoop环境,进一步探索大数据处理的世界。 总之,Hadoop Common 2.7.1提供的bin目录工具对于Hadoop在Windows环境中的运行至关重要,尤其是...

    hadoop-common-2.6.0-bin-master.zip

    在进行Hadoop编程时,通常需要搭建一个本地master环境,以便进行开发、测试和调试。Hadoop Common 2.6.0-bin-master.zip包含了搭建这种环境所需的所有文件和配置。 1. 安装步骤:首先,解压下载的zip文件,然后根据...

    hadoop-common-2.2.0-bin-master(包含windows端开发Hadoop2.2需要的winutils.exe)

    在Windows上搭建Hadoop环境时,往往需要将`winutils.exe`添加到系统路径,以便系统能够找到并执行这个工具。 Hadoop 2.2.0引入了一些重要改进,包括YARN(Yet Another Resource Negotiator)资源管理框架,这使得...

    hadoop -1.2.1-jar(全)

    在给定的压缩包文件“hadoop-1.2.1-jar(全)”中,包含了Hadoop 1.2.1版本的多个重要组件的JAR包,这对于开发者和系统管理员在搭建、理解和使用Hadoop环境时非常关键。 1. **hadoop-core-1.2.1.jar**:这是Hadoop的...

    hadoop-2.4.1版本大数据

    三、单机模拟分布式Hadoop环境搭建 对于初学者来说,通过单机模拟分布式Hadoop环境是学习和理解Hadoop工作原理的有效方式。以下是一个简单的步骤指南: 1. **环境准备**:确保安装了Java环境,并设置好环境变量。 ...

    hadoop-2.7.7.zip(windows 用)

    这个压缩包“hadoop-2.7.7.zip”是专为Windows 7系统设计的Hadoop版本,使得用户在Windows环境下也能搭建本地的大数据处理环境。 在安装和运行Hadoop 2.7.7之前,确保你已经正确配置了Java环境是至关重要的。Java是...

    hadoop-3.1.0-winutils-master(1).zip

    总的来说,"hadoop-3.1.0-winutils-master(1).zip"提供的是一套适用于Windows的Hadoop工具,它使得在Windows环境中搭建和运行Hadoop集群成为可能。通过理解Hadoop的基本原理、WinUtils的作用以及如何配置和使用这些...

    hadoop-2.5.2.tar.gz

    总结来说,“hadoop-2.5.2.tar.gz”是Hadoop 2.5.2版本的完整分发包,包含了Hadoop的核心组件、配置文件和文档,适用于搭建、学习和开发分布式大数据处理环境。用户可以通过下载、解压和配置这个压缩包,深入了解和...

Global site tag (gtag.js) - Google Analytics