在32位或64位的linux的操作系统,安装hadoop2.0d都没问题。
在64位的linux上安装的时候,hadoop为了追求性能,使用linux本地库。libhadoop.so.1.0.0文件要求32位的文件。使用2中方法解决:临时办法:
export HADOOP_COMMON_LIB_NATIVE_DIR=/home/grid/hadoop-2.2.0/lib/native
export HADOOP_OPTS="-D java.library.path=/home/grid/hadoop-2.2.0/lib"
彻底解决问题的办法:重新编译hadoop,让hadoop的本地库编译成64位的。
(1).在hadoop2.2的根目录下,分别创建data,name,tmp目录。data目录存储数据节点的数据文件。name目录存储namenode的元数据。tmp目录代表hadoop临时目录。
(2).涉及到的配置文件有7个:
~/hadoop-2.2.0/etc/hadoop/hadoop-env.sh
~/hadoop-2.2.0/etc/hadoop/yarn-env.sh
~/hadoop-2.2.0/etc/hadoop/slaves
~/hadoop-2.2.0/etc/hadoop/core-site.xml
~/hadoop-2.2.0/etc/hadoop/hdfs-site.xml
~/hadoop-2.2.0/etc/hadoop/mapred-site.xml
~/hadoop-2.2.0/etc/hadoop/yarn-site.xml
以上个别文件默认不存在的,可以复制相应的tmplate文件获得。
(3).启动集群及检验
格式化namenode :/bin/hdfs namenode -format
启动hdfs:./sbin/start-dfs.sh
此时在h1上面运行的进程有:namenode,secondarynamenode
h2和h3上面运行的进程有:datanode
启动yarn:./sbin/start-yarn.sh
此时在h1上运行的进程有:namenode,secondarynamenode,resourcemanager
h2和h3上面运行的进程有:datanode,nodemanager
暂时这样,以后慢慢补充。
相关推荐
在这个“spark2.0编译版-适用于hive2.3的hive on spark”压缩包中,我们主要关注的是如何在Spark 2.0上运行Hive查询,同时确保Spark中不包含Hive的jar包。这是因为Hive on Spark模式下,Spark作为Hive的执行引擎,但...
### Hadoop 2.0 的关键改进及其配置详解 ...通过以上步骤,我们可以看到 Hadoop 2.0 在架构设计和配置管理上的改进,这些改进极大地提升了 Hadoop 的可扩展性和性能,使其成为处理大数据集的强大工具。
- **IP配置**:确保Windows主机能够通过网络Ping通安装了Hadoop的虚拟机是搭建Hadoop集群环境的第一步。这涉及到正确配置虚拟机的网络设置以及Windows主机的网络参数,以实现两者之间的通信。此步骤对于验证网络...
这里的“2x”通常代表Hadoop的2.0到2.9版本,这是一系列重要的Hadoop版本,引入了许多功能改进和性能优化。 【描述解析】 描述提到“hadoop2x-eclipse-plugin-original未配置的源码包”,意味着这个压缩包包含了...
这里的“hadoop-2.7.7.zip”是一个包含了Hadoop 2.7.7版本的所有源代码、编译后的库文件、配置文件以及文档的压缩包。这个版本的Hadoop在大数据处理领域被广泛应用,因为它提供了高效、可扩展的数据存储和处理能力。...
在这个场景中,我们讨论的是如何在Hadoop 2.0框架下利用MapReduce实现朴素贝叶斯(Naive Bayes)算法。朴素贝叶斯算法是一种基于概率的分类方法,广泛应用于文本分类、垃圾邮件过滤等领域。它假设特征之间相互独立,...
根据给定的文件内容,我们可以总结出以下关键知识点,这些知识点主要围绕着Hadoop的编译安装过程: ...通过遵循这些步骤,开发者能够顺利地完成Hadoop的本地编译安装工作,为进一步的研究和开发打下坚实的基础。
安装 Apache Spark 对于初学者来说可能会有些难度,但通过本篇指南,您将了解安装 Spark 2.0 所需的全部要求,以及如何安装 Spark 环境和配置 Jupyter Notebook 以便于编写代码。本章节涵盖的主题包括: - 系统要求...
要解决 Flume 不支持 HBase 2.0 的问题,通常需要以下步骤: 1. **升级 Flume**: 首先检查当前 Flume 版本,确保使用的是最新并且支持 HBase 2.0 的版本。如果官方已经提供了更新,升级到最新稳定版可能是最直接的...
用户可以解压这个文件,按照官方文档提供的步骤进行安装和配置,创建Hadoop集群,并开始处理大数据任务。在实际操作中,可能还需要配置Hadoop与HDFS相关的参数,如`core-site.xml`、`hdfs-site.xml`、`mapred-site....
- **安装步骤**: - 下载安装镜像:通过Ubuntu官网获取安装镜像。 - 安装Ubuntu Server: 使用虚拟机软件或物理机进行安装。 **2. 主机配置** - **设置主机名**: - 编辑`/etc/hostname`文件,根据集群中机器的...
编译源码通常包括以下几个步骤: 1. **环境准备**:确保系统安装了Go开发环境,包括Go语言运行时和编译工具链。 2. **获取源码**:将下载的`minio-RELEASE.2021-04-22T15-44-28Z`解压缩到本地工作目录。 3. **设置...
安装步骤通常包括以下几个部分: 1. **下载**:从 Apache Spark 官方网站下载 `spark-2.0.2-bin-hadoop2.7.tgz` 或 `spark-2.0.2-bin-hadoop2.7.zip` 文件。确保文件完整无误,可以使用 `md5sum` 或 `sha1sum` 命令...
1. **安装**:通常需要先安装必要的依赖,如Aircrack-ng套件,然后通过源码编译或者软件包管理器安装wifite。 2. **配置**:配置wifite的设置,如选择攻击策略、指定字典文件等。 3. **启动扫描**:运行wifite命令...
它可能包含了配置环境、安装依赖、设置Hadoop配置参数等一系列步骤,以确保用户能够在hiCloud环境中快速部署Hadoop。 2. **LICENSE**: 这通常表示项目的开源许可协议,可能是Apache License 2.0、GPL或MIT等,规定...
2. **配置步骤**: 安装Ranger前,需要正确配置环境变量、数据库连接(如MySQL)、认证服务等。 3. **插件安装**: 根据所使用的数据存储和服务,安装相应的Ranger插件,并确保它们与Ranger Admin通信正常。 4. **测试...
以下是安装和配置的基本步骤: 1. **系统准备**:确保你的Linux环境满足Ranger的硬件和软件需求,比如Java运行时环境(JRE)和数据库支持(如MySQL或PostgreSQL)。 2. **解压文件**:将`ranger-1.2.0-admin`...
如果你使用的是Spark预编译版本,例如`spark-2.4.2-bin-hadoop2.7`,则不需要额外安装Hadoop,因为该版本已经包含了必要的Hadoop类库。如果使用的是不含Hadoop的Spark版本,如`spark-2.4.3-bin-without-hadoop-scala...
在本压缩包"apache-atlas-2.0.0-bin.tar.gz"中,我们找到了Apache Atlas 2.0.0版本的预编译部署包,这对于快速设置和测试环境非常有用。 首先,Apache Atlas 的核心功能包括: 1. **元数据定义**:它允许用户定义...