`
danny_
  • 浏览: 5247 次
  • 性别: Icon_minigender_1
  • 来自: 北京
最近访客 更多访客>>
社区版块
存档分类
最新评论
文章列表
1.说明:Master机的ip地址定为192.168.1.216.         slaves1机的ip地址定为192.168.1.217         slaves2机的ip地址定为192.168.1.218 1) 192.168.1.1 namenode作为 Namenode, JobTracker,SecondaryNameNode 2) 192.168.1.2 datenode1 作为 Datanode1, TaskTracker 3) 192.168.1.3 datanode2 作为 Datanode2, TaskTracker 前提JDK已经安装 首先,需要配置各个机器间 ...
配置hdfs映射本地文件系统 mount 1.在namenode上安装tomcat6 然后下载hdfs-webdav.war 拷贝到webapp下,2.进入webapp目录hdfs-webdav/linux_mount_lib 将fuse-2.7.4.tar.gz    neon-0.28.3.tar.gz 解压,然后重新下载高版本davfs2-1.4.6.tar.gz 代替原有的1.3.3版本,解压开。 3.下载软件expat-2.0.1.tar.gz 解压开 执行 $./configure $ make $ make install 然后安装软件libxml2 $ apt-g ...
增加节点的方法: 1. 首先安装hadoop此处不详写 2. 在master中的hosts添加要新增的节点datanodeN的ip映射,在新增的节点中修改slaves文 件和master文件 3. 启动新增的节点 登录datanodeN 进入#HADOOP_HOME/bin   执行命令 sh hadoop-daemon.sh start datanode sh hadoop-daemon.sh start tasktracker (这里需要查一下,如果没用到             MapReduce 是不是可以不用启动这进程) -----注意: hosts 中把没用的都删除掉,只保留ip ...
Global site tag (gtag.js) - Google Analytics