`

Hadoop2.7.1+Hbase1.2.1集群环境搭建(2)hadoop2.7.1安装准备

阅读更多
(1)hadoop2.7.1源码编译 http://aperise.iteye.com/blog/2246856
(2)hadoop2.7.1安装准备 http://aperise.iteye.com/blog/2253544
(3)1.x和2.x都支持的集群安装 http://aperise.iteye.com/blog/2245547
(4)hbase安装准备 http://aperise.iteye.com/blog/2254451
(5)hbase安装 http://aperise.iteye.com/blog/2254460
(6)snappy安装 http://aperise.iteye.com/blog/2254487
(7)hbase性能优化 http://aperise.iteye.com/blog/2282670
(8)雅虎YCSBC测试hbase性能测试 http://aperise.iteye.com/blog/2248863
(9)spring-hadoop实战 http://aperise.iteye.com/blog/2254491
(10)基于ZK的Hadoop HA集群安装  http://aperise.iteye.com/blog/2305809

本文章主要解决以下几个问题:

       (1)设置linux打开文件数和进程数

       (2)防火墙设置

       (3)设置主机名

       (4)配置/etc/hosts

       (5)下载并安装JDK

       (6)创建用户用于hadoop安装,配置SSH免密码登录

 

1.设置linux打开文件数和进程数

        1)修改/etc/security/limits.conf ,在最后增加如下内容:

* soft nofile 102400
* hard nofile 409600
* soft nproc 409600
* hard nproc 819200

        2)修改/etc/pam.d/login,在最后添加如下内容:

session required /lib/security/pam_limits.so

        3)重启系统使得配置生效

        4)linux官方关于该值设置建议

           该值设置多少合适,目前在linux帮助文档(man limits.conf)中没找到合理的估算方法和推荐值,该文档中不过说到一句“All items support the values -1, unlimited or infinity indicating no limit, except for priority and nice”,意思是除了prioritynice两项外,其他项均可以设置值为-1unlimitedinfinity,这样就不受限制,但不要这么干,这样修改后系统无法启动,详细说明见博客

 http://www.cnblogs.com/zengkefu/p/5635153.html

NAME
       limits.conf - configuration file for the pam_limits module

DESCRIPTION
       The syntax of the lines is as follows:

       <domain><type><item><value>

       The fields listed above should be filled as follows:

       <domain>
              ·  a username
              ·  a groupname, with @group syntax. This should not be confused with netgroups.
              ·  the wildcard *, for default entry.
              ·  the wildcard %, for maxlogins limit only, can also be used with %group syntax.

       <type>
              hard   for enforcing hard resource limits. These limits are set by the superuser and enforced by the Kernel. The user cannot raise his
                     requirement of system resources above such values.
              soft   for enforcing soft resource limits. These limits are ones that the user can move up or down within the permitted range by any
                     pre-exisiting hard limits. The values specified with this token can be thought of as default values, for normal system usage.
              -      for enforcing both soft and hard resource limits together.
                     Note, if you specify a type of ’-’ but neglect to supply the item and value fields then the module will never enforce any limits
                     on the specified user/group etc. .

       <item>
              core   limits the core file size (KB)

              data   maximum data size (KB)

              fsize  maximum filesize (KB)

              memlock
                     maximum locked-in-memory address space (KB)

              nofile maximum number of open files

              rss    maximum resident set size (KB) (Ignored in Linux 2.4.30 and higher)

              stack  maximum stack size (KB)

              cpu    maximum CPU time (minutes)

              nproc  maximum number of processes

              as     address space limit

              maxlogins
                     maximum number of logins for this user

              maxsyslogins
                     maximum number of logins on system

              priority
                     the priority to run user process with (negative values boost process priority)

              locks  maximum locked files (Linux 2.4 and higher)

              sigpending
                     maximum number of pending signals (Linux 2.6 and higher)

              msqqueue
                     maximum memory used by POSIX message queues (bytes) (Linux 2.6 and higher)

              nice   maximum nice priority allowed to raise to (Linux 2.6.12 and higher)

              rtprio maximum realtime priority allowed for non-privileged processes (Linux 2.6.12 and higher)

       In general, individual limits have priority over group limits, so if you impose no limits for admin group, but one of the members in this group
       have a limits line, the user will have its limits set according to this line.

       Also, please note that all limit settings are set per login. They are not global, nor are they permanent; existing only for the duration of the
       session.

       In the limits configuration file, the ’#’ character introduces a comment - after which the rest of the line is ignored.

       The pam_limits module does its best to report configuration problems found in its configuration file via syslog(3).

EXAMPLES
       These are some example lines which might be specified in /etc/security/limits.conf.

       *               soft    core            0
       *               hard    rss             10000
       @student        hard    nproc           20
       @faculty        soft    nproc           20
       @faculty        hard    nproc           50
       ftp             hard    nproc           0
       @student        -       maxlogins       4

SEE ALSO
       pam_limits(8), pam.d(5), pam(8)

AUTHOR
       pam_limits was initially written by Cristian Gafton <gafton@redhat.com>

 

 

2.防火墙设置

        1) 重启后生效 

        开启: chkconfig iptables on 

        关闭: chkconfig iptables off 

        2) 即时生效,重启后失效 

        开启: service iptables start 

        关闭: service iptables stop 

        3) vi /etc/selinux/config

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=enforcing #注释掉
SELINUX=disabled #新增
# SELINUXTYPE= can take one of three two values:
# targeted - Targeted processes are protected,
# minimum - Modification of targeted policy. Only selected processes are protected.
# mls - Multi Level Security protection.
#SELINUXTYPE=targeted #注释掉

        4) selinux修改立即生效

setenforce 0

 

3.设置主机名

vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=nmsc0

 

4.配置/etc/hosts

        vi /etc/hosts

127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
192.168.181.66 nmsc0
192.168.88.21 nmsc1
192.168.88.22 nmsc2

 

5.下载并安装JDK

#1.首先不建议用openjdk,建议采用oracle官网JDK

#2.首先卸载系统自带的低版本或者自带openjdk
#首先用命令java -version 查看系统中原有的java版本
#然后用用 rpm -qa | gcj 命令查看具体的信息
#最后用 rpm -e --nodeps java-1.5.0-gcj-1.5.0.0-29.1.el6.x86_64卸载

#3.安装jdk-7u65-linux-x64.gz
#下载jdk-7u65-linux-x64.gz放置于/opt/java/jdk-7u65-linux-x64.gz并解压
cd /opt/java/
tar -zxvf jdk-7u65-linux-x64.gz
#配置linux系统环境变量
vi /etc/profile
#在文件末尾追加如下内容
export JAVA_HOME=/opt/java/jdk1.7.0_65
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
#使配置生效
source /etc/profile

#4检查JDK环境是否配置成功
java -version

 

6.创建用户用于hadoop安装,配置SSH免密码登录

        1)创建用户用于Hadoop安装

#删除已经存在的hadoop用户,并且删除目录/home/hadoop目录
userdel -r hadoop
#创建用户hadoop
useradd hadoop
#设置用户hadoop密码
passwd hadoop


 

        2)配置SSH免密码登录

    这里我三台机器IP为(192.168.181.66     192.168.88.21         192.168.88.22),以下是我在机器192.168.181.66上执行的命令:

#首先切换到上面的hadoop用户
su - hadoop
#生成非对称公钥和私钥,这个在集群中所有节点都必须执行
ssh-keygen -t rsa
#通过ssh登录远程机器时,本机会默认将当前用户目录下的.ssh/authorized_keys带到远程机器进行验证,这里是/home/hadoop/.ssh/authorized_keys中公钥(来自其他机器上的/home/hadoop/.ssh/id_rsa.pub.pub),以下代码只在主节点执行就可以做到主从节点之间SSH免密码登录
cd /home/hadoop/.ssh/
#首先将Master节点的公钥添加到authorized_keys
cat id_rsa.pub>>authorized_keys
#其次将Slaves节点的公钥添加到authorized_keys
ssh hadoop@192.168.88.21 cat /home/hadoop/.ssh/id_rsa.pub>> authorized_keys
ssh hadoop@192.168.88.22 cat /home/hadoop/.ssh/id_rsa.pub>> authorized_keys
#这里将Master节点的authorized_keys分发到其他slaves节点
scp -r /home/hadoop/.ssh/authorized_keys hadoop@192.168.88.21:/home/hadoop/.ssh/
scp -r /home/hadoop/.ssh/authorized_keys hadoop@192.168.88.22:/home/hadoop/.ssh/
#必须设置修改/home/hadoop/.ssh/authorized_keys权限
chmod 600 /home/hadoop/.ssh/authorized_keys
#免密码远程登录nmsc1
ssh nmsc1

 

        3) ssh服务相关命令

#查看openssh版本
ssh -V
#查看openssl版本
openssl version -a
#重启ssh服务
/etc/rc.d/init.d/sshd restart
#通过ssh登录远程机器nmsc1
ssh nmsc1 或者 ssh hadoop@nmsc1
#查看ssh登录远程机器nmsc1的debug信息
ssh -v2 nmsc1


 

  • 大小: 9.9 KB
  • 大小: 33.9 KB
分享到:
评论

相关推荐

    Hadoop2.7.1+Hbase1.2.1集群环境搭建(7)hbase 性能优化

    本篇将详细阐述如何在Hadoop 2.7.1环境下搭建HBase 1.2.1集群,并进行性能优化,以提升系统效率。 首先,我们需要了解Hadoop和HBase的基本概念。Hadoop是基于分布式文件系统HDFS(Hadoop Distributed File System)...

    hadoop2.7.1+zk3.5+hbase2.1+phoenix 安装部署环境打包

    本压缩包提供了这些组件的安装部署资源,便于快速搭建一个完整的Hadoop2.7.1、ZK3.5、HBase2.1和Phoenix5.1.0的基础环境。 首先,Hadoop是Apache开源项目,它提供了分布式文件系统(HDFS)和MapReduce计算框架,...

    hadoop2.7.1+hbase2.1.4+zookeeper3.6.2.rar

    标题 "hadoop2.7.1+hbase2.1.4+zookeeper3.6.2.rar" 提供的信息表明这是一个包含Hadoop 2.7.1、HBase 2.1.4和ZooKeeper 3.6.2的软件集合。这个压缩包可能包含了这些分布式系统的安装文件、配置文件、文档以及其他...

    虚拟机环境下Hadoop2.7.1+HBase1.3.5安装配置手册 .docx

    ### Hadoop2.7.1 + HBase1.3.5 在 CentOS6.5 虚拟机环境下的安装配置指南 #### 准备工作 为了确保 Hadoop 和 HBase 的顺利安装,需要提前做好一系列准备工作,包括安装 VMware、设置虚拟机、配置 CentOS 操作系统等...

    hadoop-2.7.1.zip

    与Hadoop 2.7.1一同提及的还有hive-1.2.1,Hive是基于Hadoop的数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供SQL查询功能。在Hive 1.2.1中,可能包含的改进有: 1. 性能优化,包括更快的查询执行...

    hadoop2.7+hbase1.0+hive1.2+zookeeper3.4.6

    在探讨Hadoop2.7.1、HBase1.0、Hive1.2以及ZooKeeper3.4.6的安装和配置时,我们首先需要了解这些组件的基本功能以及它们在整个大数据处理框架中所扮演的角色。以下对这些知识点进行详细说明: ### Hadoop2.7.1 ...

    hadoop-2.7.1

    10. **安装与部署**:安装Hadoop 2.7.1通常涉及解压`hadoop-2.7.1.tar.gz`,配置环境变量,格式化HDFS,启动守护进程等步骤。集群部署还需要考虑节点间的通信和数据同步。 综上所述,Hadoop 2.7.1是一个强大的大...

    Hadoop2.7.1中文文档

    在Hadoop2.7.1中,引入了YARN(Yet Another Resource Negotiator),它作为资源管理器,负责调度集群中的计算资源,提高了系统的资源利用率和任务调度效率。YARN将原本由JobTracker承担的任务调度和资源管理职责分离...

    hadoop-common-2.7.1-bin-master.zip+hbase-2.0.0-bin.tar.gz Hbase与Hadoop版本对应

    本文将深入探讨Hadoop Common 2.7.1与HBase 2.0.0之间的关系,以及在Windows环境下如何正确安装和配置这两个组件。 Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大规模数据集。Hadoop Common是...

    hadoop.zip hadoop2.7.1安装包

    总之,Hadoop2.7.1安装包提供了在Linux和Windows环境下运行Hadoop所需的一切,让开发者和数据分析师能够利用分布式计算能力处理大规模数据。无论是学习Hadoop基础知识,还是在生产环境中部署大数据解决方案,这个...

    Spark所需的hadoop2.7.1相关资源

    在Windows环境下安装和配置Hadoop2.7.1和Spark2.0.0+时,确保正确放置hadoop.dll和winutils.exe文件,并配置相应的环境变量,是成功运行Spark作业的必要步骤。用户还需要注意Java环境的配置,因为Hadoop和Spark都是...

    hadoop 2.7.1

    Hadoop 2.7.1 是一个重要的版本,在大数据处理领域具有广泛的影响力。这个版本包含了Hadoop的核心组件,包括HDFS(Hadoop Distributed File System)和MapReduce,这两个组件是Hadoop生态系统的基础。HDFS提供了...

    hadoop-2.7.1.rar

    Hadoop 2.7.1 是 Apache 基金会发布的一个开源分布式计算框架,它在大数据处理领域扮演着至关重要的角色。...通过持续的改进和优化,Hadoop 2.7.1 为用户提供了更加灵活、高效和可靠的分布式计算环境。

    hadoop-2.7.1.tar.gz.zip

    这个名为“hadoop-2.7.1.tar.gz.zip”的文件包含了Hadoop的2.7.1版本,这是一个非常重要的里程碑,因为它包含了对Hadoop生态系统的许多改进和修复。 首先,我们要明白文件的结构。这是一个压缩文件,最外层是.zip...

    hadoop2.7.1安装手册.docx

    【Hadoop 2.7.1 安装详解】 在大数据处理领域,Hadoop 是一个不可或缺的开源框架,主要用于分布式存储和计算。本篇将详细阐述如何在 CentOS 6.4 系统上安装 Hadoop 2.7.1。 **一、准备工作** 1. **获取安装包** ...

    hadoop2.7.1稳定版

    8. **生态系统**:Hadoop 2.7.1 还兼容众多生态系统组件,如 Hive(数据仓库工具)、Pig(数据分析工具)、HBase(NoSQL 数据库)、Mahout(机器学习库)等,构建了一个完整的大数据处理平台。 9. **配置和管理**:...

    hadoop-2.7.1.tar.gz

    总的来说,`hadoop-2.7.1.tar.gz` 包含了搭建、配置和运行一个功能齐全的Hadoop环境所需的所有文件,为大数据处理提供了强大的基础。无论是初学者还是经验丰富的开发者,都能从中学习到关于Hadoop分布式计算框架的...

Global site tag (gtag.js) - Google Analytics