=========================== 在所有数据节点执行以下命令 ======================
================================ 安装ssh ==========================
ubuntu默认的ssh服务是没有安装的.SSH分客户端openssh-client和openssh-server
如果你只是想登陆别的机器的SSH只需要安装openssh-client(ubuntu有默认安装,如果没有则sudo apt-get install openssh-client)
如果要使本机开放SSH服务就需要安装openssh-server sudo apt-get install openssh-server
然后确认sshserver是否启动了:
ps -e |grep ssh
如果看到sshd那说明ssh-server已经启动了。
如果没有则可以这样启动:sudo /etc/init.d/ssh start
======================= 创建hadoop用户 =============================
su -
useradd -s /bin/bash -m hadoop
passwd hadoop (设置密码为hadoop)
===== 设置SSH免密码登录:生成无密码登录的私匙 =================
1. 安装SSH:
$ sudo apt-get install ssh
2. 查看是否生成目录.ssh:
$ ls -al /home/hadoop/
3. 如果没有,手动创建目录.ssh:
$ mkdir /home/hadoop/.ssh
cd /home/hadoop/.ssh
4. 生成公、私密钥:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
5. 将公钥加到用于认证的公钥文件中:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
6. 验证是否SSH安装成功:
$ ssh -version
OpenSSH_5.8p1 Debian-7ubuntu1, OpenSSL 1.0.0e 6 Sep 2011
Bad escape character 'rsion'.
7. 免密码登陆:
$ ssh localhost
Linux xsj-virtual-machine 2.6.35-22-generic #33-Ubuntu SMP Sun Sep 19 20:34:50 UTC 2010 i686 GNU/Linux
Ubuntu 10.10
Welcome to Ubuntu!
* Documentation: https://help.ubuntu.com/
New release 'natty' available.
Run 'do-release-upgrade' to upgrade to it.
Last login: Wed May 23 21:26:46 2012 from xsj-virtual-machine
========================== 安装jdk ===================================
安装前要查看系统版本
uname -a
下载jdk
http://www.oracle.com/technetwork/java/javase/downloads/index.html(jdk-6u22-linux-i586.bin)
cp jdk-6u22-linux-i586.bin /usr/local
cd /usr/local
chmod +x jdk-6u22-linux-i586.bin
./jdk-6u22-linux-i586.bin
这里jdk被安装到了/usr/local/jdk1.6.0_22目录下,[可能是版本问题,没有提示手动输入安装目录]
设置环境变量 vi /etc/profile
#set java
JAVA_HOME=/usr/local/jdk
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
使配置生效
source /etc/profile
重启系统 在终端输入java -version将会显示Java版本的相关信息
======================= 配置hadoop ======================================
1)上传hadoop文件(chown -R hadoop:hadoop hadoop/* (把hadoop文件夹的权限改为hadoop用户))
2)配置hadoop-env.sh (该文件位于"hadoop/conf"目录下)
export JAVA_HOME=/usr/java/jdk
3)配置core-site.xml文件 (该文件位于"hadoop/conf"目录下,这里配置的是HDFS的地址和端口号)
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop-tmp/hadoop-${user.name}</value>
(备注:请先在建立 /data/hadoop-tmp/ 目录,并执行sudo chmod -R a+w /data/hadoop-tmp/)
<description>A base for other temporary directories.</description>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
4)配置hdfs-site.xml文件 (该文件位于"hadoop/conf"目录下,修改Hadoop中HDFS的配置,配置的备份方式默认为3)
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
(备注:replication 是数据副本数量,默认为3,salve少于3台就会报错)
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
<description>关闭权限配置</description>
</property>
<configuration>
5)配置mapred-site.xml文件 (该文件位于"hadoop/conf"目录下,修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口)
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
6) 格式化HDFS文件系统 (在"Master.Hadoop"上使用普通用户hadoop进行操作.只需一次,下次启动不再需要格式化,只需 start-all.sh)
cd bin
./hadoop namenode -format
7) 启动hadoop
cd bin
./start-all.sh
8) 验证hadoop
http://192.168.133.134:50030/ (MapReduce页面)
http://192.168.133.134:50070/ (HDFS页面)
====================================================== 集群 =====================================
所有机器先安装以上的步骤安装单机版hadoop(除了5与6),安装完以后再按以下操作执行
1、修改/etc/hostname
主机:hadoop.main
从机:hadoop.slave
2、修改/etc/hosts,都增加以下内容(主机增加全部,从机只增加主机ip和本机ip)
192.168.133.134 hadoop.main
192.168.133.135 hadoop.slave
3、验证一下:
ping 192.168.133.134
ping 192.168.133.135
4、把主机的密钥添加到从机中(以下都在主机操作)
su - hadoop
cd /home/hadoop/.ssh/
scp id_rsa.pub hadoop.slave:./.ssh/
ssh hadoop.slave
cd /home/hadoop/.ssh/
cat id_rsa.pub>>authorized_keys
exit
回到主节点(hostname):ssh hadoop.slave (出现以下信息即成功)
Welcome to Ubuntu 12.10 (GNU/Linux 3.5.0-17-generic x86_64)
* Documentation: https://help.ubuntu.com/
Last login: Sat Jan 26 05:14:13 2013 from hadoop.main
5、把主从机上core-site.xml、mapred-site.xml中的localhost都改为hadoop.main
======================================== hive 配置 ======================================
1. 安装hive
-
将hive解压至 hadoop master机器其中一个目录
-
设置好 HADOOP_HOME变量
vim /etc/profile
export HADOOP_HOME=/home/hadoop/hadoop
export HIVE_HOME=/home/hadoop/hive
2. 配置 hive metadata store
-
hive的配置信息保存在数据库中,默认是自带的 derby数据库,需要迁移存储至 mysql,或者是oracle数据库
1) 创建 mysql 用户
mysql> CREATE USER 'hive'@'localhost' IDENTIFIED BY '123456789';
mysql> GRANT ALL PRIVILEGES ON *.* TO 'hive'@'localhost' WITH GRANT OPTION;
2) 将mysql jdbc driver jar放在 $HIVE_HOME/lib/ 下面
3) 创建conf/hive-site.xml 数据库配置,conf/hive-site.xml的配置会覆盖 conf/hive-default.xml默认值
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>hive.metastore.local</name>
<value>true</value>
<description>controls whether to connect to remove metastore server or open a new metastore server in Hive Client JVM</description>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>hive</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456789</value>
<description>password to use against metastore database</description>
</property>
</configuration>
3. 启动hadoop:./start-all.sh,验证hive
======================================================================================================
相关推荐
一、Hadoop配置基础 1. **环境准备**:首先,你需要在Linux环境下安装Java开发环境,因为Hadoop是基于Java的。通常,我们需要设置JAVA_HOME环境变量指向Java的安装路径。 2. **下载Hadoop**:从Apache官方网站获取...
4. **配置Hadoop配置文件**: - **core-site.xml**:定义HDFS的基本属性,如`fs.defaultFS`,设置为`hdfs://localhost:9000`表示HDFS的NameNode运行在本地主机的9000端口。 - **hdfs-site.xml**:配置HDFS的参数,...
这篇博客“Hadoop配置文件表”虽然没有提供详细的描述,但从标题我们可以推断,它可能包含了关于Hadoop系统中各种配置文件的详细信息。这些配置文件对于理解和优化Hadoop集群的性能至关重要。 Hadoop的核心组件主要...
在Hadoop配置中,还涉及到NameNode高可用性(HA)的配置参数,如: - dfs.namenode.secondary.http-address:为Secondary NameNode指定一个用于管理任务的HTTP地址。 - dfs.nameservices:用逗号分隔的NameService...
这涉及到多台机器的网络配置,Hadoop配置文件的定制,以及数据节点的添加和测试。完全分布式模式能够充分利用多台机器的计算资源,处理更大规模的数据。 总的来说,这个教程涵盖了从零开始搭建Hadoop环境的全过程,...
Hadoop 配置完全手册 Hadoop 是一个开源的大数据处理框架,由 Apache 软件基金会开发和维护。它提供了一个分布式文件系统和一个分布式计算框架,用于处理大规模数据集。 Hadoop 配置 Hadoop 的配置文件是对 ...
这个压缩包"**HADOOP配置文件-有注释版.rar**"包含了Hadoop的配置文件,并且带有注释,这对于理解和配置Hadoop环境至关重要。下面我们将详细探讨Hadoop的配置体系以及这些配置文件中的关键知识点。 首先,Hadoop的...
在这个主题下,我们将深入探讨与Hadoop配置相关的知识,这些知识通常会在一本高质量的Hadoop图书中详细阐述。 首先,我们关注的是"namenode"。NameNode是Hadoop HDFS(Hadoop Distributed File System)的核心组件...
hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件hadoop配置文件
Windows 下 Hadoop 配置详解 在本文中,我们将详细介绍 Windows 下 Hadoop 配置的过程。Hadoop 是一款开源的分布式计算框架,由 Apache 开发和维护。作为云计算和大数据处理的核心组件,Hadoop 广泛应用于数据挖掘...
经过多次反复试验,完全可用的hadoop配置,有0.19的版本,也有0.20的版本。并且有脚本可以在两个版本之间切换,无需格式化文件系统。Without "hadoop namenode -format" 目录结构: /data/hadoop 为工作目录,实际为...
Hadoop 配置文件编辑 Hadoop 配置文件是 Hadoop 集群的核心组件之一,它们控制着集群的行为和性能。本文将对 Hadoop 的配置文件进行详细的解释,并对每个配置文件中的关键参数进行详细的说明。 一、core-site.xml ...
"单机Hadoop配置安装教程" 单机Hadoop配置安装是Hadoop beginners的不二之选,本篇文章将详细指导您如何在Windows平台上安装和配置Hadoop-2.5.2。通过亲自实验和实践,本教程将带您掌握单机Hadoop配置安装的所有...
Linux下的Hadoop配置和使用是大数据处理领域的重要环节,它基于Apache基金会开发的分布式系统基础架构,旨在简化在分布式环境中开发和运行程序的过程。Hadoop的核心组件包括分布式文件系统(Hadoop Distributed File...
Hadoop 配置文件参数详解 Hadoop 配置文件是 Hadoop 集群的核心组件之一,它们控制着 Hadoop 集群的行为和性能。Hadoop 配置文件主要包括 core-site.xml、hdfs-site.xml 和 mapred-site.xml 三个配置文件。这些配置...