文章列表
1.说明:Master机的ip地址定为192.168.1.216.
slaves1机的ip地址定为192.168.1.217
slaves2机的ip地址定为192.168.1.218
1) 192.168.1.1 namenode作为 Namenode, JobTracker,SecondaryNameNode
2) 192.168.1.2 datenode1 作为 Datanode1, TaskTracker
3) 192.168.1.3 datanode2 作为 Datanode2, TaskTracker
前提JDK已经安装
首先,需要配置各个机器间 ...
配置hdfs映射本地文件系统 mount
1.在namenode上安装tomcat6 然后下载hdfs-webdav.war 拷贝到webapp下,2.进入webapp目录hdfs-webdav/linux_mount_lib 将fuse-2.7.4.tar.gz neon-0.28.3.tar.gz 解压,然后重新下载高版本davfs2-1.4.6.tar.gz 代替原有的1.3.3版本,解压开。
3.下载软件expat-2.0.1.tar.gz 解压开 执行
$./configure
$ make
$ make install
然后安装软件libxml2
$ apt-g ...
增加节点的方法:
1. 首先安装hadoop此处不详写
2. 在master中的hosts添加要新增的节点datanodeN的ip映射,在新增的节点中修改slaves文 件和master文件
3. 启动新增的节点 登录datanodeN 进入#HADOOP_HOME/bin
执行命令 sh hadoop-daemon.sh start datanode
sh hadoop-daemon.sh start tasktracker (这里需要查一下,如果没用到 MapReduce 是不是可以不用启动这进程)
-----注意: hosts 中把没用的都删除掉,只保留ip ...