今天再一次配置HDFS,决定记录下来以备不时之需。
首先你的电脑需要安装上java JDK 1.6 这一步就不解释了,网上太多资料
安装ant
http://ant.apache.org/bindownload.cgi ant 官网地址可以直接下载,使用命令:
wget http://archive.apache.org/dist/ant/binaries/apache-ant-1.8.2-bin.tar.gz
解压文件到当前目录: tar zxvf apache-ant-1.8.2-bin.tar.gz
移动ant目录到你想要安装的目录,我用的/usr/local: sudo mv apache-ant-1.8.2 /usr/local/
为了方便后续环境变量的设置,我用了一个软链:ln -s apache-ant-1.8.2 ant
然后配置环境变量:sudo vim /etc/profile
在最后添加语句:export ANT_HOME=/usr/local/ant
export PATH=$ANT_HOME/bin:$PATH
重新启动profile:source /etc/profile
测试ant是否安装成功:ant -version
安装maven
http://www.apache.org/dyn/closer.cgi/maven/binaries/apache-maven-3.0.4-bin.tar.gz 官网下载maven安装包
wget http://apache.communilink.net/maven/binaries/apache-maven-3.0.4-bin.tar.gz
解压文件到当前目录: tar zxvf apache-maven-3.0.4-bin.tar.gz
移动maven目录到你想要安装的目录,同上: sudo mv apache-maven-3.0.4 /usr/local/
同上我用了一个软链:ln -s apache-maven-3.0.4 maven
然后配置环境变量:sudo vim /etc/profile
在最后添加语句:export M2_HOME=/usr/local/maven
export M2=$M2_HOME/bin
可选配置:export MAVEN_OPTS="-Xms256m -Xmx512m"
export PATH=$M2:$PATH
重新启动profile:source /etc/profile
测试maven是否安装成功:mvn -version
安装protobuf
参考上面的方法下载protobuf:http://code.google.com/p/protobuf/
wget http://protobuf.googlecode.com/files/protobuf-2.4.1.tar.gz
解压到当前文件夹: tar zxvf protobuf-2.4.1.tar.gz
cd protobuf-2.4.1
./configure
make
sudo make install
cd java
mvn install
protoc // 如果出现“Missing input files” 表示安装成功
// 我运行后出现了“protoc: error while loading shared libraries: libprotobuf.so.7: cannot .....” 的错误,根据hadoop的安装文档了解到这是linux的常见错误,只需要在命令行中执行:sudo ldconfig 即可。
详情参考:http://wiki.apache.org/hadoop/HowToContribute
Hadoop源码下载
Hadoop源码的下载地址为: http://mirrors.devlib.org/apache/hadoop/core/
下载源码的时候选择下载src的,而不是binary的压缩包
下载完成后解压文件,然后进入src中,执行命令:mvn clean package -Pdist -DskipTests
可以根据需要build,具体查看BUILD文件,里边详述了build的不同功能需要安装的文件,我这边是需要越简单越好。
到目前为止就build好了hadoop,剩下的就是配置hadoop并使之运行
更多信息请查看 java进阶网 http://www.javady.com
分享到:
相关推荐
hdfs-compress 压缩hdfs...build mvn clean package run hadoop jar hdfs-compress-0.0.1.jar <input> input : 待压缩的文件或路径 output : 输出的路径,需要一个只有1级目录的文件夹 “e.g /home/yourname/w
Design, build, and administer a dedicated Hadoop cluster—or run Hadoop in the cloud Load data from relational databases into HDFS, using Sqoop Perform large-scale data processing with the Pig query ...
第1章 HDFS HA及解决方案 1.1 HDFS系统架构 1.2 HA定义 1.3 HDFS HA原因分析及应对措施 1.3.1 可靠性 1.3.2 可维护性 1.4 现有HDFS HA解决方案 1.4.1 Hadoop的元数据备份方案 1.4.2 Hadoop的SecondaryNameNode方案 ...
This book is ideal for programmers looking to analyze datasets of any size, and for administrators who want to set up and run Hadoop clusters. Using Hadoop 2 exclusively, author Tom White presents ...
Design, build, and administer a dedicated Hadoop cluster, or run Hadoop in the cloud Use Pig, a high-level query language for large-scale data processing Analyze datasets with Hive, Hadoop’s data ...
Getting to know Hadoop 2.0 and the innovations it provides like HDFS2 and YARN Quickly installing, configuring, and monitoring Hadoop (HDInsight) clusters in the cloud and automating cluster ...
$make init: build up the directories in the HDFS, pre-process the input file and put it into HDFS. $make run: compile the WordCount.java program and run this mapreduce task $make output: print the ...
标题中的“使用ANT实现Run-on-Hadoop功能”指的是利用Apache Ant工具来构建和运行在Hadoop分布式环境中的程序。Ant是Java开发中的一个自动化构建工具,它可以用来编译、打包、测试和部署Java项目。在Hadoop环境中,...
• Run streaming and graph analytics in Spark for exploratory analysis • Bundle and scale up Spark jobs by deploying them into a variety of cluster managers • Build dynamic workflows for scientific ...
在 Docker 上运行和Dockerfiles 和脚本: DNS服务器火花大师一个 HDFS 名称节点1+ 个节点结合了一个 Spark 工作线程和一个 HDFS 数据节点启动 DNS 服务器: $ cd nameserver$ docker build ....Successfully built ...
ucz-dfs(ucz分布式文件系统) 基于hdfs / gfs的分布式文件系统。 只是为了娱乐和学习。 工作仍在进行中,很多事情丢失了。 如果您想尝试一下,这是启动Docker容器( docker-compose up )并bash到运行中的容器( ...
在本文中,我们将详细介绍如何在Eclipse环境中搭建Hadoop ...这只是一个基础,深入学习Hadoop,你还需要了解分布式文件系统HDFS、数据处理模型MapReduce以及YARN资源管理框架等概念。祝你在Hadoop的世界里探索愉快!
自动生成一种用于开发目的的构建的简单方法 $ make dist install$ ./dist/flink/flink-tez org.apache.flink.tez.examples.WordCount hdfs:///tmp/words/ hdfs:///tmp/wc/run-$RANDOM/对于那些希望这种速度很快的人-...
图像都可以使用./build_docker_images构建和正确命名。 运行脚本的用户需要在 docker 组中或者是 root。 构建容器后,生成一个 resource_manager 和 name_node 映像,并根据需要生成尽可能多的工作程序。 resource...
6. **配置运行配置**:右键点击项目,选择`Run As` > `Run Configurations`,在`Map/Reduce Job`中设置运行参数,如主类、输入和输出路径。 7. **Hadoop.dll和winutils.exe**:在Windows环境下,由于Hadoop主要为...
1. 创建MapReduce项目:在Eclipse中新建一个Java项目,然后在项目的"Build Path"设置中,将Hadoop的JAR文件添加到类路径中,使项目具备Hadoop开发环境。 2. 编写Mapper和Reducer:根据业务需求编写处理数据的Mapper...
5. **配置hbase-site.xml**:在HBase的conf目录下,你需要有一个`hbase-site.xml`文件,其中包含HBase集群的相关配置信息,如Zookeeper地址、HDFS的地址等。如果你是在本地单机模式下运行,可以配置相应的本地设置。...
在“Run Configurations”中,配置Hadoop Job运行参数,包括输入路径、输出路径、Job配置等。启动调试后,Eclipse会将JAR文件提交到Hadoop集群,并在遇到断点时暂停执行。 7. **远程调试**: 对于分布式集群,你...