`

大数据系列12:Hadoop2 – 全新的Hadoop

阅读更多

wget http://mirrors.hust.edu.cn/apache/hadoop/common/stable2/hadoop-2.2.0.tar.gz

tar -xzvf hadoop-2.2.0.tar.gz

cd hadoop-2.2.0

vi etc/hadoop/hadoop-env.sh

修改:

export  JAVA_HOME=/home/ysc/jdk1.7.0_17

vi etc/hadoop/slaves

修改localhosthost001

vi etc/hadoop/core-site.xml

增加:

<property>

       <name>fs.defaultFS</name>

       <value>hdfs://host001:9000</value>

</property>

cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

vi etc/hadoop/mapred-site.xml

增加:

<property>

       <name>mapreduce.framework.name</name>

       <value>yarn</value>

</property>

<property>

       <name>mapreduce.cluster.local.dir</name>

       <value>/home/ysc/mapreduce/local</value>

</property>

vi etc/hadoop/yarn-site.xml

增加:

<property>

       <name>yarn.resourcemanager.hostname</name>  

       <value>host001</value>

</property>

<property>

       <name>yarn.nodemanager.aux-services</name> 

       <value>mapreduce_shuffle</value> 

</property>

vi etc/hadoop/hdfs-site.xml

增加:

<property>

       <name>dfs.name.dir</name>

       <value>/home/ysc/dfs/filesystem/name</value>

</property>

<property>

       <name>dfs.data.dir</name>

       <value>/home/ysc/dfs/filesystem/data</value>

</property>

<property>

       <name>dfs.replication</name>

       <value>3</value>

</property>

sudo vi /etc/profile

增加:

export  HADOOP_PREFIX=/home/ysc/hadoop-2.2.0

export  HADOOP_COMMON_HOME=/home/ysc/hadoop-2.2.0

export  HADOOP_MAPRED_HOME=/home/ysc/hadoop-2.2.0

export  HADOOP_CONF_DIR=/home/ysc/hadoop-2.2.0/etc/hadoop

export  HADOOP_HDFS_HOME=/home/ysc/hadoop-2.2.0

export  HADOOP_YARN_HOME=/home/ysc/hadoop-2.2.0

source /etc/profile

格式化:

bin/hdfs namenode -format

启动dfs

sbin/start-dfs.sh

启动yarn

sbin/start-yarn.sh

启动historyserver

sbin/mr-jobhistory-daemon.sh start  historyserver

运行wordcount

echo  "APDPlat is a java open source project,  Application Product Development Platform."  >  text1.txt

echo  "Yang Shangchuan is the founder of APDPlat which won the "2013 Outstanding Open Source Project" award."  >  text2.txt

bin/hadoop  fs  -mkdir input

bin/hadoop  fs  -put text1.txt  input

bin/hadoop  fs  -put text2.txt  input

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.2.0.jar wordcount  input  output

访问管理页面

ResourceManager: http://host001:8088

NodeManager: http://host001:8042  

NameNode:http://host001:50070

NameNode:http://host001:50070

 

停止dfs

sbin/stop-dfs.sh

停止yarn

sbin/stop-yarn.sh

停止historyserver

sbin/mr-jobhistory-daemon.sh stop  historyserver

 

 注意:要把这里的主机host001和用户ysc替换为你自己的,在/etc/hosts文件中要把127.0.0.1 localhost改为实际IP地址 host001

 

 

 


 

APDPlat旗下十大开源项目

 

 

 

 

 

 

 

 

 

 

6
1
分享到:
评论
6 楼 咱不怕 2015-01-17  
川哥,为啥hadoop2的版本+Hive或者Pig这些配置在管网找不到配置文档()...找了好多地方都没找到....(是不是我的方法有问题?).
求推荐...
5 楼 fighting_2013 2013-11-10  
yangshangchuan 写道
fighting_2013 写道
yangshangchuan 写道
fighting_2013 写道
请问 hadoop 2.2.0 有 eclipse 插件吗?


看这:http://yangshangchuan.iteye.com/blog/1950158


我是想问有没有2.2.0这个版本下的Eclipse Plugin


没有


那如果Hadoop换成了2.2.0这个版本,要想在Eclipse里面像之前那几个版本一样开发,有没有什么好的方法?
4 楼 yangshangchuan 2013-11-10  
fighting_2013 写道
yangshangchuan 写道
fighting_2013 写道
请问 hadoop 2.2.0 有 eclipse 插件吗?


看这:http://yangshangchuan.iteye.com/blog/1950158


我是想问有没有2.2.0这个版本下的Eclipse Plugin


没有
3 楼 fighting_2013 2013-11-10  
yangshangchuan 写道
fighting_2013 写道
请问 hadoop 2.2.0 有 eclipse 插件吗?


看这:http://yangshangchuan.iteye.com/blog/1950158


我是想问有没有2.2.0这个版本下的Eclipse Plugin
2 楼 yangshangchuan 2013-11-09  
fighting_2013 写道
请问 hadoop 2.2.0 有 eclipse 插件吗?


看这:http://yangshangchuan.iteye.com/blog/1950158
1 楼 fighting_2013 2013-11-09  
请问 hadoop 2.2.0 有 eclipse 插件吗?

相关推荐

    大数据系列4:Hive – 基于HADOOP的数据仓库

    在“大数据系列4:Hive – 基于HADOOP的数据仓库”这篇博文中,可能详细介绍了如何设置和使用Hive,包括安装配置、创建表、导入数据、执行查询、优化性能等方面。通过学习这些内容,读者能够更好地理解Hive的工作...

    大数据系列9:Mahout – 机器学习

    在IT领域,大数据技术是近年来发展极为迅速的一个分支,它主要关注如何处理和分析海量数据,从而挖掘出有价值的信息。Apache Mahout是一个基于Hadoop的数据挖掘库,专注于提供机器学习算法,是大数据处理中实现预测...

    hadoop大数据常用命令

    ### Hadoop大数据常用命令知识点详解 #### 一、启动与关闭Hadoop集群 **启动Hadoop** - **步骤**: 进入HADOOP_HOME目录,然后执行`sh bin/start-all.sh`。 - **作用**: 启动Hadoop集群,包括DataNodes和NameNode。...

    大数据之hadoop分布式集群初次启动 (2).docx

    大数据之 Hadoop 分布式集群初次启动 本文将指导读者如何从头开始启动 Hadoop 分布式集群,并对相关的知识点进行详细的解释。 1. SSH 免密登录 在 Hadoop 分布式集群中,需要配置集群中各个节点间的 SSH 免密登录...

    hadoop大数据就业面试题

    Hadoop 大数据就业面试题知识点总结 在这篇文章中,我们将总结 Hadoop 大数据就业面试题中的知识点,涵盖 Hadoop 的安装、配置、进程、调度器、MapReduce 编程语言等方面。 一、Hadoop 的安装和配置 在安装 ...

    大数据与云计算技术 Hadoop之Hive详解三.ppt

    1、 load data local inpath '/input/files/tb.txt' overwrite into table tb; ...2 、hive –e 执行hql语句 -i 初始化参数,多用于加载UDF -f 执行hql文件,因为无法传参数,所以项目中基本不用

    大数据处理架构Hadoop-Hadoop安装完整版资料.pptx

    这可以通过`sudo useradd`命令完成,例如:`sudo useradd –m hadoop –s /bin/bash`,然后设置该用户的密码。 2. **SSH登录权限设置**: 为了在集群中的不同节点间无密码地执行命令,需要配置SSH免密登录。这可以...

    Bikas Saha:The Next Generation of Hadoop– Hadoop 2 and YARN

    该文档来自2013中国大数据技术大会上,Apache Tez Committer Bikas Saha讲师关于The Next Generation of Hadoop– Hadoop 2 and YARN主题的演讲。

    大数据技术Hadoop面试题 (2).docx

    【大数据技术Hadoop面试题解析】 1. HDFS的数据存储由Datanode负责,因此正确答案是c)Datanode。 2. HDFS中的block默认保存3份,以确保数据的容错性,正确答案是a)3份。 3. 通常与NameNode在一个节点启动的程序是...

    Hadoop与大数据技术大会2012PPT

    【Hadoop与大数据技术大会2012PPT】是一个关于Hadoop和大数据技术的专题会议,该会议可能聚集了业界专家和学者,分享了他们在2012年关于这两个领域的最新研究、实践经验和未来发展趋势。这个压缩包包含了多个PDF文件...

    大数据之hadoop分布式集群初次启动 (2).pdf

    我们可以使用 rm -rftmp/dfs/ 命令删除 master 节点 HDFS 目录中的数据,然后再执行格式化命令 hadoop namenode –format。格式化完成后,我们可以看到成功的提示信息。 3. 启动 Hadoop 格式化 HDFS 结束后,我们...

    大数据面试题.pdf

    25. **hadoop dfsadmin –report命令**:该命令用于报告HDFS的总体状态,包括损坏块。选项正确。 26. **默认调度器策略**:Hadoop的默认调度器策略是FIFO(先进先出)。选项正确。 27. **RAID配置**:虽然配置RAID...

    大数据之hadoop分布式集群初次启动.pdf

    首先,需要删除 master、slave1、slave2 节点中的 HDFS 目录数据,然后执行格式化命令 hadoop namenode –format。格式化完成后,HDFS 将被初始化。 三、启动 Hadoop 启动 Hadoop 集群需要启动 HDFS 和 YARN 两个...

    Hadoop完全自学手册

    - 解压Hadoop文件:`tar –zxf /opt/software/hadoop-2.5.0.tar.gz –C /opt/moduels/` - 检查文件目录结构:`cd`进入相应目录。 - 确保有足够磁盘空间,使用`df –h`查看。 - 删除不必要的文件:如`rm –rf doc...

    Hadoop完全分布式 大数据 入门 学习

    格式化NameNode是启动Hadoop集群的第一步,使用`hdfs namenode –format`命令。然后,通过`start-dfs.sh`脚本启动Hadoop DFS服务。在所有节点上运行`jps`命令,检查Hadoop进程是否正确启动。 为了验证Hadoop集群的...

    大数据云计算技术 优酷网Hadoop及Mapreduce入门教程(共35页).pptx

    Hadoop Overview HDFS Map-reduce Programming Paradigm Hadoop Map-reduce Job Scheduler Resources Hadoop, Why? 数据太多了,需要能存储、快速分析Pb级数据集的系统 单机的存储、IO、内存、CPU有限,需要可扩展...

    HDFS_HBaseShell的常用命令

    3. 列出HDFS上的目录内容:Hadoop dfs –ls /hdfsDir 4. 删除HDFS下的文档:Hadoop dfs -rmr /hdfs 5. 查看HDFS下的文件内容:Hadoop dfs -cat /hdfs 6. 查看HDFS基本统计信息:Hadoop dfsadmin -report 7. 进入和...

Global site tag (gtag.js) - Google Analytics