`

Build and Run HDFS

阅读更多

 

今天再一次配置HDFS,决定记录下来以备不时之需。

首先你的电脑需要安装上java JDK 1.6 这一步就不解释了,网上太多资料


安装ant

http://ant.apache.org/bindownload.cgi ant 官网地址可以直接下载,使用命令:

wget http://archive.apache.org/dist/ant/binaries/apache-ant-1.8.2-bin.tar.gz

 

解压文件到当前目录: tar zxvf apache-ant-1.8.2-bin.tar.gz

 

 

移动ant目录到你想要安装的目录,我用的/usr/local: sudo mv apache-ant-1.8.2 /usr/local/

 

 

为了方便后续环境变量的设置,我用了一个软链:ln -s apache-ant-1.8.2 ant

 

 

然后配置环境变量:sudo vim /etc/profile

 

 

在最后添加语句:export ANT_HOME=/usr/local/ant

 

 

                                export PATH=$ANT_HOME/bin:$PATH

 

 

重新启动profile:source /etc/profile

 

 

测试ant是否安装成功:ant -version

 

 


 

安装maven

http://www.apache.org/dyn/closer.cgi/maven/binaries/apache-maven-3.0.4-bin.tar.gz 官网下载maven安装包

wget http://apache.communilink.net/maven/binaries/apache-maven-3.0.4-bin.tar.gz

 

 

解压文件到当前目录: tar zxvf apache-maven-3.0.4-bin.tar.gz

 

 

移动maven目录到你想要安装的目录,同上: sudo mv apache-maven-3.0.4 /usr/local/

 

 

同上我用了一个软链:ln -s apache-maven-3.0.4 maven

 

 

然后配置环境变量:sudo vim /etc/profile

 

 

在最后添加语句:export M2_HOME=/usr/local/maven

 

                                export M2=$M2_HOME/bin

 

 

                   可选配置:export MAVEN_OPTS="-Xms256m -Xmx512m"

 

 

                                export PATH=$M2:$PATH

 

 

 

重新启动profile:source /etc/profile

 

 

测试maven是否安装成功:mvn -version

 

 

 

安装protobuf

 

 

参考上面的方法下载protobuf:http://code.google.com/p/protobuf/

 

 

wget http://protobuf.googlecode.com/files/protobuf-2.4.1.tar.gz

 

解压到当前文件夹: tar zxvf protobuf-2.4.1.tar.gz

cd protobuf-2.4.1

./configure

make

sudo make install

cd java

mvn install

protoc  // 如果出现“Missing input files” 表示安装成功 

           // 我运行后出现了“protoc: error while loading shared libraries: libprotobuf.so.7: cannot .....” 的错误,根据hadoop的安装文档了解到这是linux的常见错误,只需要在命令行中执行:sudo ldconfig 即可。

详情参考:http://wiki.apache.org/hadoop/HowToContribute


Hadoop源码下载

 

Hadoop源码的下载地址为:  http://mirrors.devlib.org/apache/hadoop/core/ 

 

下载源码的时候选择下载src的,而不是binary的压缩包

下载完成后解压文件,然后进入src中,执行命令:mvn clean package -Pdist -DskipTests

可以根据需要build,具体查看BUILD文件,里边详述了build的不同功能需要安装的文件,我这边是需要越简单越好。

到目前为止就build好了hadoop,剩下的就是配置hadoop并使之运行

更多信息请查看 java进阶网 http://www.javady.com

分享到:
评论

相关推荐

    hdfs-compress:hdfs 文件 压缩

    hdfs-compress 压缩hdfs...build mvn clean package run hadoop jar hdfs-compress-0.0.1.jar <input> input : 待压缩的文件或路径 output : 输出的路径,需要一个只有1级目录的文件夹 “e.g /home/yourname/w

    Hadoop The Definitive Guide 3rd Edition

    Design, build, and administer a dedicated Hadoop cluster—or run Hadoop in the cloud Load data from relational databases into HDFS, using Sqoop Perform large-scale data processing with the Pig query ...

    高可用性的HDFS:Hadoop分布式文件系统深度实践

    第1章 HDFS HA及解决方案 1.1 HDFS系统架构 1.2 HA定义 1.3 HDFS HA原因分析及应对措施 1.3.1 可靠性 1.3.2 可维护性 1.4 现有HDFS HA解决方案 1.4.1 Hadoop的元数据备份方案 1.4.2 Hadoop的SecondaryNameNode方案 ...

    Hadoop: The Definitive Guide, 4th Edition

    This book is ideal for programmers looking to analyze datasets of any size, and for administrators who want to set up and run Hadoop clusters. Using Hadoop 2 exclusively, author Tom White presents ...

    Hadoop: The Definitive Guide [Paperback]

    Design, build, and administer a dedicated Hadoop cluster, or run Hadoop in the cloud Use Pig, a high-level query language for large-scale data processing Analyze datasets with Hive, Hadoop’s data ...

    Sams.Teach.Yourself.Big.Data.Analytics.with.Microsoft.HDInsight

    Getting to know Hadoop 2.0 and the innovations it provides like HDFS2 and YARN Quickly installing, configuring, and monitoring Hadoop (HDInsight) clusters in the cloud and automating cluster ...

    InvertedIndexer:在Hadoop上使用MapReduce构建反向索引器

    $make init: build up the directories in the HDFS, pre-process the input file and put it into HDFS. $make run: compile the WordCount.java program and run this mapreduce task $make output: print the ...

    使用ANT实现Run-on-Hadoop功能

    标题中的“使用ANT实现Run-on-Hadoop功能”指的是利用Apache Ant工具来构建和运行在Hadoop分布式环境中的程序。Ant是Java开发中的一个自动化构建工具,它可以用来编译、打包、测试和部署Java项目。在Hadoop环境中,...

    Scala: Guide for Data Science Professionals

    • Run streaming and graph analytics in Spark for exploratory analysis • Bundle and scale up Spark jobs by deploying them into a variety of cluster managers • Build dynamic workflows for scientific ...

    spark-in-docker

    在 Docker 上运行和Dockerfiles 和脚本: DNS服务器火花大师一个 HDFS 名称节点1+ 个节点结合了一个 Spark 工作线程和一个 HDFS 数据节点启动 DNS 服务器: $ cd nameserver$ docker build ....Successfully built ...

    ucz-dfs:用Rust编写的分布式文件系统

    ucz-dfs(ucz分布式文件系统) 基于hdfs / gfs的分布式文件系统。 只是为了娱乐和学习。 工作仍在进行中,很多事情丢失了。 如果您想尝试一下,这是启动Docker容器( docker-compose up )并bash到运行中的容器( ...

    Eclipse下搭建Hadoop2.7.3开发环境

    在本文中,我们将详细介绍如何在Eclipse环境中搭建Hadoop ...这只是一个基础,深入学习Hadoop,你还需要了解分布式文件系统HDFS、数据处理模型MapReduce以及YARN资源管理框架等概念。祝你在Hadoop的世界里探索愉快!

    flink-autobuild:一种用于开发目的的构建Tez Flink的简单方法

    自动生成一种用于开发目的的构建的简单方法 $ make dist install$ ./dist/flink/flink-tez org.apache.flink.tez.examples.WordCount hdfs:///tmp/words/ hdfs:///tmp/wc/run-$RANDOM/对于那些希望这种速度很快的人-...

    pkss-bigdata

    图像都可以使用./build_docker_images构建和正确命名。 运行脚本的用户需要在 docker 组中或者是 root。 构建容器后,生成一个 resource_manager 和 name_node 映像,并根据需要生成尽可能多的工作程序。 resource...

    eclipse hadoop2.7.1 plugin 配置

    6. **配置运行配置**:右键点击项目,选择`Run As` > `Run Configurations`,在`Map/Reduce Job`中设置运行参数,如主类、输入和输出路径。 7. **Hadoop.dll和winutils.exe**:在Windows环境下,由于Hadoop主要为...

    hadoop-eclipse-plugin

    1. 创建MapReduce项目:在Eclipse中新建一个Java项目,然后在项目的"Build Path"设置中,将Hadoop的JAR文件添加到类路径中,使项目具备Hadoop开发环境。 2. 编写Mapper和Reducer:根据业务需求编写处理数据的Mapper...

    如何在windows平台上用Eclipse调试运行HBase

    5. **配置hbase-site.xml**:在HBase的conf目录下,你需要有一个`hbase-site.xml`文件,其中包含HBase集群的相关配置信息,如Zookeeper地址、HDFS的地址等。如果你是在本地单机模式下运行,可以配置相应的本地设置。...

    如何在Windows下的eclipse调试Hadoop2.2.0分布式集群

    在“Run Configurations”中,配置Hadoop Job运行参数,包括输入路径、输出路径、Job配置等。启动调试后,Eclipse会将JAR文件提交到Hadoop集群,并在遇到断点时暂停执行。 7. **远程调试**: 对于分布式集群,你...

Global site tag (gtag.js) - Google Analytics