1. 下载 hadoop 1.1.2 ...
2. 参考 http://hadoop.apache.org/docs/r1.1.2/single_node_setup.html 安装 伪分布节点.
遇到各种狗血问题.(服务器启动看 log)
1)端口被占了,没root 权限 不能看进程号,也不能kill ... 只有改端口.
hdfs-site.xml
<property> <name>dfs.datanode.http.address</name> <value>0.0.0.0:60075</value> <description>defalut 50075</description> </property> <property> <name>dfs.datanode.ipc.address</name> <value>0.0.0.0:60020</value> <description>50020</description> </property>
mapred-site.xml
<property> <name>mapred.job.tracker.http.address</name> <value>0.0.0.0:60030</value> <description> The job tracker http server address and port the server will listen on.If the port is 0 then the server will start on a free port. </description> </property> <property> <name>mapred.task.tracker.http.address</name> <value>0.0.0.0:60060</value> <description> 50060 </description> </property>2) 遇到了 could only be replicated to 0 nodes, instead of 1
改temp.. 目录. (配了2次 一次改了 一次没改.) 更新完毕 主要是 先去删除temp 目录 然后再去执行
hadoop namenode -format
好不容易启动完毕了. 看看 Hadoop server起来了. 就去配Eclipse了.
3)网上下了个Eclipse hadoop 插件. 按照说明配好.但是发觉 HDFS 怎么也连不上 错误是
Call to /10.221.62.68:9000 failed on local exception: Connection refused10.221.62.68 是Hadoop的linux ip.
找了半天 又要去改 config 文件.
去修改 mapred-site.xml
<property> <name>mapred.job.tracker</name> <value>10.221.62.68:9001</value> </property>和 core-site.xml
<property> <name>fs.default.name</name> <value>hdfs://10.221.62.68:9000</value> </property>
本来是localhost的.. 不知道为啥一定要写 linux 本机的ip. 反正改了之后就 换了一个excption.算是解决了这个问题. ..我的2天时间就这么浪费在这里.. 各种艰辛啊
4) 又来了个新问题..HDFS 提示我 permission denied
再改 hdfs-site.xml .
<property> <name>dfs.permissions</name> <value>false</value> </property>
删除temp 目录后 .再次使用 hadoop namenode -format.
5)又有问题了.错误改成了.
10.221.62.68:9000 failed on local exception:google 说是 啥Eclipse 插件的版本不对.. 我XXX 又要解决这个问题.
重新下了个叫 hadoop-eclipse-plugin-1.1.1.jar 的替换老的 hadoop-0.20.3-dev-eclipse-plugin.jar. 发觉还是不行..
只能自己去编译插件了.参考了 http://tianwenbo.iteye.com/blog/1464242 ,
用ant 编译 又出错了
ivy-download: [get] Getting: http://repo2.maven.org/maven2/org/apache/ivy/ivy/2.1.0/ivy-2.1.0.jar [get] To: D:\hadoop-1.1.2\ivy\ivy-2.1.0.jar [get] Error getting http://repo2.maven.org/maven2/org/apache/ivy/ivy/2.1.0/ivy-2.1.0.jar to D:\hadoop-1.1.2\ivy\ivy-2.1.0.jar BUILD FAILED D:\hadoop-1.1.2\src\contrib\eclipse-plugin\build-contrib.xml:465: java.net.UnknownHostException: repo2.maven.org at java.net.PlainSocketImpl.connect(PlainSocketImpl.java:177) at java.net.SocksSocketImpl.connect(SocksSocketImpl.java:366) at java.net.Socket.connect(Socket.java:519)Google了下感觉 网络问题, 不知道是单位网不行 还是maven有问题. 就引掉了一段(把ivy-retrieve-common 所有都杀了.).
build.xml
<!-- <target name="compile" depends="init, ivy-retrieve-common" unless="skip.contrib"> --> <target name="compile" depends="init" unless="skip.contrib"> <echo message="contrib: ${name}"/> <javac encoding="${build.encoding}" srcdir="${src.dir}"
之后再编译又说少了 jar. 自己下了下 放在他说少的地方. 最好编译通过. 生成了个 1.1.2版本的 plagin.
6) 新的问题又来了 因为我引掉了一段 出现了error: failure to login错误
再次往plugin 里面加jar. 问题解决.
终于可以通过 Eclipse的 HDFS看文件了. 万里长征第一步. 但愿 开发环境配好.
相关推荐
在本教程中,我们将详细介绍如何在Windows系统下搭建Hadoop环境,内容涉及虚拟机的安装、基础环境配置以及Hadoop集群的具体搭建步骤。适合初学者跟随本教程一步步进行操作。 首先,搭建Hadoop环境需要一台高性能...
本资源提供的是一套完整的Hadoop环境部署,包括了多个关键组件,旨在帮助用户快速搭建一个功能齐全的大数据处理平台。这套虚拟机镜像包含了以下组件: 1. **HDFS (Hadoop Distributed File System)**:Hadoop的核心...
"windows下面的hadoop环境变量"这个标题暗示了我们正在解决Hadoop在Windows上的安装和配置问题,特别是关于`winutils.exe`的路径设置。 在Hadoop的运行过程中,`winutils.exe`是一个必不可少的工具,它对应于Linux...
【Hadoop环境部署自动化Shell脚本】是一种高效的方法,用于快速搭建Hadoop集群,无论是用于学习还是开发。本文档提供了一个详细的脚本,涵盖了从Java环境配置到Hadoop集群的完全分布式安装的所有步骤,旨在降低...
Hadoop 单机版搭建环境图文解析 Hadoop 是一种基于分布式计算的开源框架,由 Apache 基金会开发和维护。它主要由 HDFS(分布式文件系统)和 MapReduce(分布式计算框架)两部分组成。Hadoop 的主要特点是高可扩展性...
在Windows上使用Cygwin作为类Unix支撑环境来安装Hadoop, 网上介绍的还是比较多的。...其实,Hadoop环境搭建的主要内容是Cygwin的安装,估计要占总时间的2/3, 其它工作我会手把手的教你,come on,follow me!
4. 配置Hadoop环境是关键步骤,主要涉及以下几个文件: - `hadoop-env.sh`: 这个文件用于设置Hadoop相关的环境变量,如`JAVA_HOME`,应确保指向正确的JDK安装路径,例如`/home/tools/jdk1.8.0_221`。 - `hdfs-...
在本文中,我们将详细介绍如何在 CentOS 6.4 操作系统环境下搭建 Hadoop 2.5.0 全分布式环境。这是一个逐步过程,包括设置多台虚拟机、安装 JDK、配置 Hadoop 环境以及启动集群。 首先,我们需要准备三台能够无密码...
hadoop环境搭建
hadoop环境搭建和eclipse开发
在搭建Hadoop环境的过程中,经常会遇到一些特定的依赖问题,比如缺少`hadoop.dll`和`winutils.exe`这两个关键组件。本文将详细介绍这两个文件及其在Hadoop生态系统中的作用,以及如何解决它们缺失的问题。 首先,`...
Hadoop环境搭建.pdf Hadoop环境搭建.pdf Hadoop环境搭建.pdf
hadoop 环境搭建、机器部署以及 Linux 常用命令操作指南 本指南将指导用户从头开始搭建 Hadoop 环境,包括虚拟机环境的准备、Linux 基础知识、shell 增强大数据集群环境准备、ZooKeeper 介绍及集群操作网络编程等...
### Hadoop环境搭建详解 #### 一、引言 随着大数据技术的发展,Hadoop作为大数据处理的核心框架之一,其重要性不言而喻。对于初学者来说,掌握Hadoop的基本安装与配置流程是非常重要的第一步。本文旨在提供一份...
### Linux环境下Hadoop环境搭建详解 #### 一、前言 在大数据处理领域,Hadoop是一个非常重要的开源框架,它能够高效地存储和处理大规模数据集。为了更好地理解和使用Hadoop,本文将详细介绍如何在Linux系统上搭建...
在集成Spring 3和Hadoop 0.2.0时,首先需要确保安装了Hadoop环境,并且配置好Hadoop的环境变量,包括HADOOP_HOME、HADOOP_CONF_DIR等。接着,我们需要在Spring的配置文件中添加Hadoop的相关配置,如HDFS的连接信息、...