- 浏览: 5199 次
- 性别:
- 来自: 北京
最新评论
文章列表
一、安装jdk、Tomcat、Apache
1.安装jdk和Tomcat,去官网下载解压简单配置就可运行Tomcat。
2.安装Apache,去官网下载最新的Apache源码包。安装时要指定apr,所以如果操作系统没有安装请下载安装apr、apr-util和pcre。
tar -zxvf httpd-*
./configure --prefix=/work/installed/apache --with-apr=/work/installed/apr --with-apr-util=/work/installed/apr-util --with-pcre=/work/inst ...
一、spark1.3.0编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译spark1.3。
二、安装软件
1.在官网下载scala2.10.5,解压设置好环境变量就可以用。
环境变量设置如下:
export SCALA_HOME=/usr/local/scala
export PATH=$SCALA_HOME/bin:$PATH
2.将编译好的spark解压修改配置环境变量
export SPARK_HOME=/usr/local/spark-1.3.0-bin-hadoop2.4
...
一、hadoop2.4编译方法可参考:Linux64位操作系统(CentOS6.6)上如何编译hadoop2.4.0 。
二、准备工具
1.部署准备两个机器test1为Master,test2为Slave。
在两个机器上分别vim /etc/hosts
加入如下内容:
192.168.1.100 test1
192.168.1.200 test2
2.增加hadoop用户
groupadd hadoop
useradd hadoop -g hadoop
passwd hadoop
3.设置Master无密码登录sl ...
1.在官网下载1.3.0源码后执行如下命令:
./make-distribution.sh --tgz --skip-java-test --with-tachyon -Dhadoop.version=2.4.0 -Djava.version=1.7 -Dprotobuf.version=2.5.0 -Pyarn -Phive -Phive-thriftserver
2.参数说明:
--tgz 生成部署包;
--skip-java-test 滤过测试阶段;
--with-tachyon 感觉tachyon是趋势,所以加上tachyon的支持;
-Dhadoop.versio ...
一、准备编译软件
1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7
export MAVEN_HOME=/home/spark/apache-maven-3.2.1
export ANT_HOME=/home/spark/apache-ant-1.9.4
export PATH=$JAVA_HOME/bin:$MAVEN_HOME ...