1、SSH安装
1,设置ssh无密码登录
~# ssh-keygen
输入上面的命令后一路回车即可。
2,拷贝生成的密码文件,默认生成的密码文件在用户名目录下的.ssh目录下
~# cd ~/.ssh
~# cp id_rsa.pub authorized_keys
3、测试是否可以无密码登录
~# ssh localhost
~# who
2、JDK安装
1、在usr/下建立java目录,将Jjdk-6u31-linux-i586.bin复制到"usr/java"目录
2、修改jdk-6u31-linux-i586.bin权限
chmod 755 jdk-6u31-linux-i586.bin
3、安装jdk-6u31-linux-i586.bin
./jdk-6u31-linux-i586.bin
4、删除安装文件jdk-6u31-linux-i586.bin
rm -rf jdk-6u31-linux-i586.bin
5、安装完成后配置环境变量
在“/etc/profile”文件的尾部添加以下内容
export JAVA_HOME=/usr/java/jdk1.6.0_31/
export JRE_HOME=/usr/java/jdk1.6.0_31/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
使配置生效
source /etc/profile
然后输入
java -version
验证JAVA是否安装成功。
三、安装HADOOP
1、在usr下建立hadoop目录,将hadoop1.0.tar上传到hadoop目录
2、修改hadoop权限
chmod 755 hadoop1.0.tar
3、解压安装
tar -zxvf hadoop1.0.tar
4、删除原文件hadoop1.0tar
rm -rf hadoop1.0.tar
5、配置hadoop
配置“/etc/profile”
在profile的文件尾添加如下文件
export HADOOP_HOME=/usr/hadoop
export PATH=$PATH :$HADOOP_HOME/bin
保存并执行下面的命令
source /etc/profile
配置hadoop配置文件
1)配置hadoop-env.sh
该“hadoop-env.sh”文件位于“/usr/hadoop/conf”目录下。
在文件的末尾添加下面内容。
# set java environment
export JAVA_HOME=/usr/java/jdk1.6.0_31
2)配置core-site.xml文件
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/hadoop/tmp</value>
(备注:请先在/usr/hadoop 目录下建立tmp 文件夹)
<description>A base for other temporary directories.</description>
</property>
<!-- file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.2:9000</value>
</property>
</configuration>
3)配置hdfs-site.xml文件
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
(备注:replication 是数据副本数量,默认为3,salve少于3台就会报错)
</property>
<configuration>
4)配置mapred-site.xml文件
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.1.2:9001</value>
</property>
</configuration>
5)配置masters文件
修改localhost为Master.Hadoop
6)配置slaves文件(Master主机特有)
去掉“localhost”,每行只添加一个主机名,把剩余的Slave主机名都填上。
例如下面的形式
Slave1.Hadoop
Slave2.Hadoop
Slave3.Hadoop
四启动hadoop
1)格式化HDFS文件系统
hadoop namenode -format
2)启动hadoop
在启动的时候关闭所有防火墙
service iptables stop
使用下面的命令启动
./start-all.sh
查看是否启动成功
jps
可以通过以下启动日志看出,首先启动namenode 接着启动datanode1,datanode2,…,
然后启动secondarynamenode。再启动jobtracker,然后启动tasktracker1,tasktracker2,…
通过网页查看
1)访问“http:192.168.1.2:50030”
2)访问“http:192.168.1.2:50070”
相关推荐
这个插件允许开发者直接在IDE中对Hadoop集群进行操作,如创建、编辑和运行MapReduce任务,极大地提升了开发效率。本文将详细介绍这两个版本的Hadoop Eclipse Plugin——1.2.1和2.8.0。 首先,Hadoop-Eclipse-Plugin...
尽管有一些额外的挑战,但通过正确配置和理解这些核心概念,你可以在Windows上构建一个功能完备的Hadoop集群。这对于Windows开发者和测试环境来说非常有价值,他们可以在本地系统上进行Hadoop相关的开发和实验,而...
这款插件是Hadoop生态系统的组成部分,它使得Java开发者能够更加直观地与Hadoop集群进行交互,而无需离开熟悉的Eclipse工作空间。 1. **Hadoop概述**: Hadoop是一个开源框架,由Apache基金会维护,主要用于处理和...
Apache Flink 是一个流行的开源大数据处理框架,而 `flink-shaded-hadoop-2-uber-2.7.5-10.0.jar.zip` 文件是针对 Flink 优化的一个特殊版本的 Hadoop 库。这个压缩包中的 `flink-shaded-hadoop-2-uber-2.7.5-10.0....
Ubuntu虚拟机HADOOP集群搭建eclipse环境 hadoop-eclipse-plugin-3.3.1.jar
Hadoop-eclipse-plugin-2.7.2正是为了解决这个问题,它为Eclipse提供了与Hadoop集群无缝对接的功能,使得开发者可以在熟悉的Eclipse环境中编写、调试和运行Hadoop MapReduce程序。 首先,让我们深入了解Hadoop-...
2. 配置集群信息:如果你的Hadoop集群不是本地模式,需要在"Cluster Configuration"中添加集群的配置,包括JobTracker和NameNode的地址。 三、创建Hadoop项目 有了插件支持,创建Hadoop MapReduce项目变得非常简单...
Hadoop-eclipse-plugin是Hadoop生态系统中的一个重要工具,它允许开发者使用Eclipse IDE直接在Hadoop集群上开发、测试和部署MapReduce程序。这个插件极大地简化了Hadoop应用程序的开发流程,使得Java开发者能够利用...
《Flink与Hadoop的深度整合:flink-shaded-hadoop-2-uber-2.6.5-10.0.zip详解》 在大数据处理领域,Apache Flink 和 Apache Hadoop 是两个不可或缺的重要组件。Flink作为一个实时流处理框架,以其高效的事件驱动和...
4. **配置Hadoop连接**: 在创建新的Hadoop Map/Reduce项目时,需要配置Hadoop集群的连接信息。这包括Hadoop的主节点地址、端口等。这些信息通常可以在Hadoop集群的配置文件如`core-site.xml`和`hdfs-site.xml`中找到...
hadoop2 lzo 文件 ,编译好的64位 hadoop-lzo-0.4.20.jar 文件 ,在mac 系统下编译的,用法:解压后把hadoop-lzo-0.4.20.jar 放到你的hadoop 安装路径下的lib 下,把里面lib/Mac_OS_X-x86_64-64 下的所有文件 拷到 ...
通过该插件,开发者可以将Java代码编写、编译和测试的流程无缝集成到熟悉的Eclipse界面中,无需离开IDE就能对Hadoop集群进行操作。 在安装Hadoop-Eclipse-Plugin-2.6.4.jar之后,开发者可以通过Eclipse的"New -> ...
描述中提到的"Mac下编译的hadoop-lzo"意味着这个版本是在Mac操作系统上编译构建的,这确保了在Mac环境下运行Hadoop集群时,可以顺利集成和使用这个压缩库。Hadoop-LZO的源代码编译通常涉及到Java开发环境(JDK)、...
3. **作业提交**:开发者可以直接在Eclipse中编译、打包和提交MapReduce作业到Hadoop集群,无需手动执行命令行操作,极大地简化了开发流程。 4. **调试支持**:插件提供了强大的调试功能,可以在本地模拟运行...
4. 工具集:Hadoop Common还包含了多种实用工具,如fs命令行工具、日志聚合服务Log4j等,方便用户管理和维护Hadoop集群。 二、配置本地master环境 在进行Hadoop编程时,通常需要搭建一个本地master环境,以便进行...
6. **格式化NameNode**: 运行`hdfs namenode -format`命令,对NameNode进行格式化,这是启动Hadoop集群的第一步。 7. **启动Hadoop服务**: 使用`start-dfs.cmd`和`start-yarn.cmd`命令启动Hadoop的DataNode、...
5. **资源管理**:对于复杂的Hadoop集群环境,插件可以帮助开发者管理资源配置,如HDFS的文件操作,YARN的资源调度设置等。 6. **版本兼容性**:Hadoop2x-eclipse-plugin-master主要面向Hadoop 2.x版本,确保与这一...
这个JAR文件需要添加到Hadoop的类路径(classpath)中,以便Hadoop集群能够识别并使用LZO压缩格式。 在实际使用Hadoop LZO时,我们需要进行以下步骤: 1. 安装和配置:首先,下载hadoop-lzo-0.4.21-SNAPSHOT.jar,...
2. **hadoop.dll**: 这是一个动态链接库文件,包含了Hadoop运行时所需的特定功能。在Windows上,这个dll文件是Hadoop与操作系统交互的关键,特别是处理I/O、网络通信以及安全功能。将`hadoop.dll`放在正确的位置,...
这个压缩包包含了运行Hadoop集群所必需的一些基础工具和库文件,对于理解和使用Hadoop至关重要。 Hadoop Common是Hadoop生态系统的基础,它为所有其他Hadoop模块提供了通用服务,包括文件系统操作、网络通信、安全...