- 浏览: 212835 次
- 性别:
- 来自: 哈尔滨
文章分类
- 全部博客 (267)
- java.lang (8)
- 问题汇总 (21)
- 异常记录 (20)
- 功能实现 (19)
- 面试总结 (25)
- 技巧总结 (8)
- 常用代码 (4)
- 编程习惯 (3)
- 编码规则 (3)
- java.util (10)
- java.io (1)
- JavaWeb (9)
- MySQL (16)
- SVN (3)
- MyBatis (11)
- Velocity (7)
- 其他知识 (10)
- 人生哲理 (1)
- 人生故事 (1)
- 自我感悟 (1)
- shiro (3)
- 基础知识 (0)
- 问题总结 (1)
- Spring 标签 (1)
- Spring (3)
- 点滴生活 (1)
- DOS (1)
- CAS (4)
- Linux (9)
- Storm (6)
- Shell (1)
- regex (1)
- Collection (4)
- poi (1)
- 经典语句 (1)
- NIO (5)
- concurrent (14)
- RPC (1)
- zookeeper (3)
- 待整理 (2)
- Hadoop (9)
- RabbitMq (2)
- flume (1)
- hive (7)
- hbase (4)
- kafka (1)
- scala (1)
- GC (0)
- java.util.concurrent.atomic (1)
- java.lang.ref (6)
- JVM (2)
- algorithm (1)
- conception (1)
- java key word (1)
- sun.misc (1)
最新评论
1.修改虚拟机内存为1GB
2.Xshell / SercureCRT 客户端连接 虚拟机
ctrl+alt+t --》 打开 terminal 窗口
ifconfig --》 查看IP地址
3.关闭防火墙
临时关闭
service iptables stop
永久关闭
chkconfig iptables off
4.修改主机名
查看主机名
hostname
修改主机名
vim /etc/sysconfig/network
修改后立即生效
source /etc/sysconfig/network
需重启
reboot
临时修改主机名
hostname xxxx
5.配置 hosts
vim /etc/hosts
6.配置免密登录
ssh root@xxx.xxx.xxx.xxx
需输入用户密码
配置
ssh-keygen 回车一路默认
找到生成的id_rsa.pub 文件(su root , cd /root 在 root 文件夹下 )
ssh-copy-id -i .ssh/id_rsa.pub root@192.168.76.134
再次执行ssh root@xxx.xxx.xxx.xxx 无需密码
7.安装配置JDK
8.上传安装Hadoop
tar -zxvf hadoop.tar.gz
cd hadoop/etc/haddoop
--------------------------------------------------------------------------
vim hadoop-env.sh
i 插入
ESC :wq 保存
source hadoop-env.sh 立即生效
--------------------------------------------------------------------------
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://linux01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/software/hadoop/usr/local/software/hadoop-2.7.1/tmp</value>
</property>
</configuration>
cd ../hadoop-2.7.1
mkdir tmp
----------------------------------------------------------------------------
vim hdfs-site.xml
<configuration>
<property>
<name>dfs-replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/software/hadoop/usr/local/software/hadoop-2.7.1/tmp</value>
</property>
</configuration>
此处:datanode.dir 配置 需要与 core-site.xml 中 datanode.dir 的配置一致
否则,上传时报错
http://blog.sina.com.cn/s/blog_61d8d9640102whof.html
--------------------------------------------------------------------------
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
-------------------------------------------------------------------------
vim yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>linux01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
-------------------------------------------------------------------------
vim slaves
linux01
从属机器名称
--------------------------------------------------------------------------
配置环境变量
vim /etc/profile
source /etc/profile
9.测试
hadoop namenode -formate
cd /sbin
sh start-all.sh
jps 查看进程是否启动成功
2.Xshell / SercureCRT 客户端连接 虚拟机
ctrl+alt+t --》 打开 terminal 窗口
ifconfig --》 查看IP地址
3.关闭防火墙
临时关闭
service iptables stop
永久关闭
chkconfig iptables off
4.修改主机名
查看主机名
hostname
修改主机名
vim /etc/sysconfig/network
修改后立即生效
source /etc/sysconfig/network
需重启
reboot
临时修改主机名
hostname xxxx
5.配置 hosts
vim /etc/hosts
6.配置免密登录
ssh root@xxx.xxx.xxx.xxx
需输入用户密码
配置
ssh-keygen 回车一路默认
找到生成的id_rsa.pub 文件(su root , cd /root 在 root 文件夹下 )
ssh-copy-id -i .ssh/id_rsa.pub root@192.168.76.134
再次执行ssh root@xxx.xxx.xxx.xxx 无需密码
7.安装配置JDK
8.上传安装Hadoop
tar -zxvf hadoop.tar.gz
cd hadoop/etc/haddoop
--------------------------------------------------------------------------
vim hadoop-env.sh
i 插入
ESC :wq 保存
source hadoop-env.sh 立即生效
--------------------------------------------------------------------------
vim core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://linux01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/software/hadoop/usr/local/software/hadoop-2.7.1/tmp</value>
</property>
</configuration>
cd ../hadoop-2.7.1
mkdir tmp
----------------------------------------------------------------------------
vim hdfs-site.xml
<configuration>
<property>
<name>dfs-replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/software/hadoop/usr/local/software/hadoop-2.7.1/tmp</value>
</property>
</configuration>
此处:datanode.dir 配置 需要与 core-site.xml 中 datanode.dir 的配置一致
否则,上传时报错
http://blog.sina.com.cn/s/blog_61d8d9640102whof.html
--------------------------------------------------------------------------
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
-------------------------------------------------------------------------
vim yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>linux01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
-------------------------------------------------------------------------
vim slaves
linux01
从属机器名称
--------------------------------------------------------------------------
配置环境变量
vim /etc/profile
source /etc/profile
9.测试
hadoop namenode -formate
cd /sbin
sh start-all.sh
jps 查看进程是否启动成功
发表评论
-
hadoop
2017-06-17 09:03 400一、 hadoop job list 查看 hadoop ... -
Hadoop2.0 HA 集群搭建步骤
2017-06-10 18:40 419Hadoop2.0 HA 集群搭建步骤 一、准备 1.新建 ... -
MapReduce(4)
2017-06-05 22:32 409一、处理多个文件 求每个同学每科成绩的总分 chinese.t ... -
MapReduce(3)
2017-06-04 20:51 575一、Mapper分区数量 1.Mapper 分区数量 = 文 ... -
MapReduce(2)
2017-06-04 18:46 544一、去除重复的内容 源文件: 192.168.234.21 ... -
MapReduce
2017-06-03 20:52 579WordCount 统计文本单词的数量 源文件内容: word ... -
Hadoop插件
2017-05-19 22:35 3101.启动hadoop cd ../sbin sh ./sta ... -
HDFS命令
2017-05-15 23:01 4981.创建目录 hadoop fs -mkdir /park0 ...
相关推荐
本文将从零开始,逐步介绍如何在Linux环境下搭建Hadoop集群,包括所需的基础环境配置、Hadoop的安装与配置过程等。 #### 二、准备工作 在正式搭建Hadoop集群之前,我们需要准备一些基础环境,主要包括: 1. **JDK...
"基于Docker搭建Hadoop集群" 在本文中,我们将介绍如何基于Docker搭建Hadoop集群。Hadoop是大数据处理的常用工具,而Docker则是当前最流行的容器化技术。通过将Hadoop部署到Docker容器中,我们可以更方便地管理和...
ubuntu 搭建 Hadoop 单节点 Hadoop 是一个由 Apache 基金会所开发的分布式系统根底架构,用户可以在不了解分布式底层细节的情况下,开发分布式程序。Hadoop 实现了一个分布式文件系统(HDFS),简称 HDFS。HDFS 有...
### 手动搭建Hadoop高可用集群教程 #### 一、前言 本文将详细介绍如何从零开始手动搭建Hadoop高可用(HA)集群。Hadoop是一个能够处理大量数据的分布式计算框架,它由HDFS(Hadoop Distributed File System)和...
搭建Hadoop集群在LinuxRedHat、CentOS上的实现 Hadoop是一种流行的开源大数据处理平台,由Google开发,现被Apache基金会维护。Hadoop的核心是HDFS(Hadoop Distributed File System)和MapReduce,分别负责数据存储...
【搭建Hadoop集群详解】 Hadoop是一个开源的分布式计算框架,专为处理和存储大量数据而设计。它的核心设计理念是高容错性、高效性和可扩展性,这使得Hadoop能够在大规模集群中处理PB级别的数据。Hadoop的可靠性源于...
Hadoop 单机版搭建环境图文解析 Hadoop 是一种基于分布式计算的开源框架,由 Apache 基金会开发和维护。它主要由 HDFS(分布式文件系统)和 MapReduce(分布式计算框架)两部分组成。Hadoop 的主要特点是高可扩展性...
在搭建Hadoop伪分布式集群的过程中,首先需要在Linux环境下配置VMware的NAT网络,确保虚拟机能够稳定地运行和通信。NAT网络允许虚拟机通过宿主机与外部网络进行通信,同时保持IP地址的固定性。具体操作包括取消DHCP...
搭建hadoop时的手写教程、教你避开一些技术障碍
脚本搭建hadoop集群 可以自定义主机名和IP地址 可以自定义安装jdk和hadoop(格式为*tar.gz) 注意事项 1、安装完jdk和hadoop请手动source /etc/profile 刷新环境变量 2测试脚本环境为centOS6,其他操作系统会有些...
### 使用虚拟机在Ubuntu上搭建Hadoop平台单机模式 #### 概述 本文旨在详细介绍如何在虚拟机环境下,利用Ubuntu系统搭建Hadoop平台的单机模式。通过本教程,您可以掌握从安装虚拟机到配置Hadoop环境的全过程。本文...
标题中的“大数据教程之搭建Hadoop集群.zip_大数据环境搭建hadoop”暗示了这是一个关于如何在大数据环境中构建Hadoop集群的教程。Hadoop是Apache软件基金会的一个开源项目,主要用于处理和存储海量数据,其分布式...
### 在本机搭建Hadoop 3.1.2开发环境详解 #### 一、环境准备与虚拟机搭建 ##### **1.1 虚拟机软件安装** 在本教程中,我们将使用VMware Workstation来搭建Linux CentOS 7虚拟机环境。首先确保你已经在物理机器上...
小白搭建hadoop完全分布式环境笔记,步骤详细,原创
在Ubuntu系统上搭建Hadoop集群是一项基础且重要的任务,它涉及到分布式存储和计算的基础架构。本文将详细解析这个过程,包括环境准备、安装Java、配置Hadoop、启动集群以及进行基本的测试。 首先,环境准备是搭建...
在搭建Hadoop 2.5.2环境的过程中,选择CentOS作为操作系统是一个常见的选择,因为其稳定性和与开源软件的良好兼容性。以下是基于CentOS 7.0搭建Hadoop 2.5.2的详细步骤,以及涉及的相关知识点: 1. **系统准备**: ...
本文将介绍如何在Windows和Linux平台上搭建Hadoop伪分布式环境,包括下载安装Hadoop、配置Eclipse、搭建Map/Reduce环境、编写Java代码等步骤。 一、下载安装Hadoop 下载Hadoop插件jar包“hadoop-eclipse-plugin-...
在Ubuntu系统中搭建Hadoop是一项基础的分布式计算环境配置任务,这个过程涵盖了多个步骤,包括安装Linux操作系统、创建Hadoop用户组和用户、安装JDK、修改机器名、安装SSH服务以及建立SSH无密码登录,最后是安装...
第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式集群.pdf第二章(Hadoop大数据处理实战)搭建Hadoop分布式...