- 浏览: 142135 次
- 性别:
- 来自: 深圳
文章分类
- 全部博客 (43)
- web服务器 (1)
- Linux (6)
- MySQL (3)
- xen (1)
- SpringSide (2)
- Windows (1)
- WebService (1)
- Hadoop (12)
- hbase (0)
- sqoop (1)
- Java (1)
- SQL Server 存储过程 xml (0)
- hive mysql (1)
- Eclipse Hadoop 源码 编译 (1)
- Perl (2)
- Shell (1)
- Nutch (1)
- NFS (0)
- CHM (0)
- SVN (1)
- eclipse (1)
- NekoHTML (0)
- MapReduce (0)
- hive (2)
- spring hibernate (0)
- jsp (0)
- CYGWIN (0)
- maven (0)
- selenium server (0)
- CentOS (1)
- hibernate (1)
- spring mvc (0)
- Mahout (0)
- openvpn (0)
- vpn (0)
- kvm (0)
- git (1)
- CPU (1)
- thrift avro (0)
最新评论
-
rmn190:
不错, 多谢分享!
hdfs mount为linux本地文件系统 -
melburg:
请教一下,hadoop 1.0.3版本中,为什么无法启动bac ...
Hadoop SecondaryNameNode备份及恢复
环境:
10.0.30.235 NameNode
10.0.30.236 SecondaryNameNode
10.0.30.237 DataNode
10.0.30.238 DataNode
配置主机名
/etc/hosts
# Do not remove the following line, or various programs
# that require network functionality will fail.
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
10.0.30.235 nn0001 nn0001
10.0.30.236 snn0001 snn0001
10.0.30.237 dn0001 dn0001
10.0.30.238 dn0002 dn0002
修改所有节点network文件中的HOSTNAME值(以NameNode节点为例,其他的改成相应的值)
/etc/sysconfig/network
HOSTNAME=nn0001
安装jdk-6u26-linux-x64-rpm.bin
配置环境变量
vim /etc/profile
JAVA_HOME=/usr/java/jdk1.6.0_26
PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$CATALINA_HOME/common/lib
export JAVA_HOME
export PATH
export CLASSPATH
解压hadoop-0.20.205.0.tar.gz
配置hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.6.0_26
配置文件hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.http.address</name>
<value>nn0001:50070</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/hadoop/dfs/namenode</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/hadoop/dfs/datanode</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
</configuration>
注:An Hadoop HDFS datanode has an upper bound on the number of files that it will serve at any one time. The upper bound parameter is called xcievers (yes, this is misspelled). Again, before doing any loading, make sure you have configured Hadoop's conf/hdfs-site.xml setting the xceivers value to at least the following
Not having this configuration in place makes for strange looking failures. Eventually you'll see a complain in the datanode logs complaining about the xcievers exceeded, but on the run up to this one manifestation is complaint about missing blocks. For example: 10/12/08 20:10:31 INFO hdfs.DFSClient: Could not obtain block blk_XXXXXXXXXXXXXXXXXXXXXX_YYYYYYYY from any node: java.io.IOException: No live nodes contain current block. Will get new block locations from namenode and retry...
配置文件core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://nn0001:9000</value>
</property>
<property>
<name>httpserver.enable</name>
<value>true</value>
</property>
<property>
<name>fs.checkpoint.dir</name>
<value>/hadoop/dfs/namenodesecondary</value>
</property>
</configuration>
配置文件mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>nn0001:9001</value>
</property>
</configuration>
安装配置ssh
NameNode节点:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
SecondaryNameNode节点
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
DataNode节点
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
把NameNode节点上的authorized_keys文件拷贝到其他节点上
scp /root/.ssh/authorized_keys 10.0.30.23(6-8):/root/.ssh/
在NameNode上格式化一个新的分布式文件系统
./hadoop namenode -format
启动hdfs
./start-dfs.sh
出现以下警告:
dn0001: Warning: $HADOOP_HOME is deprecated.
dn0001:
dn0001: Unrecognized option: -jvm
dn0001: Could not create the Java virtual machine.
这个问题导致两个DataNode节点无法启动
出现这个问题是由于我直接用root权限运行hadoop,在bin/hadoop中可以看到以下shell脚本:
if [[ $EUID -eq 0 ]]; then
HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
else
HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
fi
在root用户下echo $EUID,结果为0
有两种解决办法:
1、使用其他用户运行
2、修改shell代码,把1、2、3行注释掉,结果为
#if [[ $EUID -eq 0 ]]; then
#HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
#else
HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
#fi
发表评论
-
升级hadoop
2013-10-09 10:21 1459在没有更换前先备份数据 [hadoop@Hadoop-1 ... -
hadoop的Avatar机制
2013-08-21 15:45 0http://www.wangyuxiong.com/arch ... -
hive
2013-07-31 14:12 0hive行号 select row_number() o ... -
Hadoop RACK ID Awareness Configuration
2013-01-25 17:21 0The configuration includes ... -
window hadoop
2012-12-28 14:31 0http://hayesdavis.net/2008/06/1 ... -
hadoop读写流程
2012-07-27 15:20 0客户端通过调用FileSystem ... -
hadoop三个配置文件的参数含义说明
2012-07-14 13:03 02 常用的端口配置 2.1 HDFS端 ... -
编译hadoop 1.0.3 eclipse plugin jar包
2012-09-13 10:32 2389环境:Win 7 32bit 1、修改hadoop- ... -
编译hadoop 1.0.3 eclipse plugin jar包
2012-07-07 23:21 3975环境:Win 7 32bit 1、修改hadoop-1. ... -
hadoop fsck使用
2012-05-08 15:05 0首先,执行fsck命令行的客户端必须在hdfs-site.xm ... -
hive使用
2012-05-03 17:33 0[root@cnn001 hive-0.8.1]# bin/h ... -
AvatarNode
2012-04-24 13:28 0http://blog.csdn.net/rzhzhz/art ... -
hdfs mount为linux本地文件系统
2012-03-21 00:08 45511、软件下载 hdfs-webdav.war http:/ ... -
扩展hadoop hdfs,实现WebDav协议,将hdfs mount为linux本地文件系统
2012-03-15 16:18 1559本文引自:http://badqiu.iteye.com/bl ... -
Hadoop MapReduce统计指定目录下所有文本文件中数字总和
2012-03-06 16:16 0package org.apache.hadoop.exa ... -
Hadoop Zookeeper HBase集群
2012-02-16 16:19 9215注:Hadoop环境搭建请参考上一篇文档。 环境: ... -
Hadoop NameNode NFS备份及恢复
2012-02-16 14:28 1524准备任意一台Linux服务器 [root@localhost ... -
Hadoop SecondaryNameNode备份及恢复
2012-02-15 17:22 68891、同步各个服务器时间 yum install ntp n ... -
hadoop mapred-default.xml配置文件
2012-02-15 13:25 4209name value description ... -
hadoop hdfs-default.xml配置文件
2012-02-15 13:05 4187name value description d ...
相关推荐
本文将详细介绍如何在三台虚拟机上安装配置Hadoop-0.20.205.0和HBase-0.90.5,包括单机模式和集群模式的安装配置流程。 #### 二、环境准备 首先,我们需要准备三台虚拟机,并安装CentOS-5.7操作系统。这三台虚拟机...
Hadoop 0.20.205.0 API 官方CHM版,根据Apache官方文档生成的chm版的文档,绝对原汁原味!
hadoop 0.20.203.0 api.chm ,自己手工制作的文档
hadoop-0.20.203.0的eclipse插件: hadoop-eclipse-plugin-0.20.203.jar
hadoop(0.20.205.0)的eclipse插件java版
hadoop-core-0.20.203.0.jar
加入依赖的 class文件的hadoop eclipse插件,不会再出现异常,大家也可以DIY,网上有简单的教程,只收一个劳务分吧
在Hadoop生态系统中,`winutils.exe` 和 `hadoop.dll` 是两个关键的组件,主要用于Windows环境下运行Hadoop。由于Hadoop最初是为Linux设计的,因此在Windows上使用时需要这些特定的二进制文件来模拟某些Unix/Linux...
标题“win32win64hadoop2.7.x.hadoop.dll.bin”暗示了这是一个与Hadoop 2.7.x版本相关的二进制文件,适用于32位和64位的Windows操作系统。描述中提到,这些文件是用于在Windows环境下部署Hadoop时必需的组件,并且在...
hadoop-eclipse-plugin-0.20.203.0.jar hadoop集成eclipse插件
hadoop-eclipse-plugin-0.20.204.0包,非常好用
接下来,我们将详细讨论Hadoop的安装过程,以及Hadoop1.x与Hadoop2.x之间的配置差异。 ### Hadoop的安装 #### Hadoop1.x安装 1. **下载Hadoop**:从Apache官方网站(http://www.us.apache.org/dist/hadoop/common)...
文档中提到,与Hadoop 2.x相比,3.x版本在集群安装和配置方面基本变化不大,但具体到新版本的特性以及对默认端口的改变上,还是存在一些需要特别注意的地方。 #### 1. Hadoop 3.x集群安装知识 在集群安装知识部分,...
hadoop安装与配置 hadoop安装与配置 Hadoop的安装与配置可以分成几个主要步骤: 1. 安装Java 2. 下载Hadoop 3. 配置Hadoop 4. 格式化Hadoop文件系统 5. 启动Hadoop 以下是基于Linux系统的简化安装与配置步骤: 1. ...
如果使用Hadoop,需要设置`HADOOP_CONF_DIR`指向Hadoop配置目录。 5. 测试Spark是否安装成功:`pyspark`命令启动一个交互式Python shell。 一旦环境配置完成,你就可以开始使用pyspark进行数据处理。例如,你可以从...
ERROR org.apache.hadoop.mapred.TaskTracker: Can not start task tracker because java.io.IOException: Failed to set permissions of path: \tmp\hadoop-admin \mapred\local\ttprivate to 0700 at org.apache...
3. **配置Hadoop**:修改`etc/hadoop`目录下的配置文件,如`hdfs-site.xml`、`core-site.xml`、`yarn-site.xml`等,设置HDFS和YARN的相关参数。 4. **格式化名称节点**:首次启动时,需要对名称节点进行格式化。 5...