1、下载镜像
可以冲灵雀云仓库中下载镜像,
docker pull registry.alauda.cn/sequenceiq/hadoop-docker
2、查看镜像
docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
registry.alauda.cn/sequenceiq/hadoop-docker latest ac0dcee6a740 23 months ago 1.766 GB
3、启动镜像
可以使用-d使用后台模式运行,也可以忽略查看镜像启动过程
docker run -it --name hadoop registry.alauda.cn/sequenceiq/hadoop-docker /etc/bootstrap.sh -bash
执行成功后直接进入容器
bash-4.1#
带-d参数启动后,需要运行容器
docker exec -it hadoop bash
4、进入Hadoop目录
cd $HADOOP_PREFIX bash-4.1# pwd
/usr/local/hadoop
5、创建input目录
bash-4.1# bin/hdfs dfs -mkdir /input bash-4.1# bin/hdfs dfs -chmod -R 777 /input
6、新建输入文本input1.txt,input2.txt,并将文件放入Hadoop的文件系统/input中
bash-4.1# vi input1.txt bash-4.1# bin/hdfs dfs -put input1.txt /input bash-4.1# vi input2.txt bash-4.1# bin/hdfs dfs -put input2.txt /input
input1.txt内容如下
Hello World Application for Apache Hadoop
Hello World and Hello Apache Hadoop
input2.txt内容如下
Hello World
Hello Apache Hadoop
7、查看执行结果
bash-4.1# bin/hdfs dfs -ls /input
Found 2 items
-rw-r--r-- 1 root supergroup 78 2017-06-16 02:31 /input/input1.txt
-rw-r--r-- 1 root supergroup 32 2017-06-16 02:32 /input/input2.txt
8、执行hadoop的mapreduce任务,传入 wordcount及输入输出目录
bash-4.1# bin/hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar wordcount /input /output
output目录在任务执行成功后会自动创建
INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032
……
……
File Input Format Counters
Bytes Read=110
File Output Format Counters
Bytes Written=60
9、查看output输出
bash-4.1# bin/hdfs dfs -ls /output
Found 2 items
-rw-r--r-- 1 root supergroup 0 2017-06-16 02:36 /output/_SUCCESS
-rw-r--r-- 1 root supergroup 60 2017-06-16 02:36 /output/part-r-00000
10、查看执行结果
bash-4.1# bin/hdfs dfs -cat /output/part-r-00000
Apache 3
Application 1
Hadoop 3
Hello 5
World 3
and 1
11、退出容器
bash-4.1# exit
12、停止容器
[root@iz2ze7sp5njgaf81ekoudez ~]# docker stop hadoop
hadoop
13、删除容器
[root@iz2ze7sp5njgaf81ekoudez ~]# docker rm hadoop
hadoop
相关推荐
通过将Hadoop部署到Docker容器中,我们可以更方便地管理和维护Hadoop集群。 虚拟化技术 在开始之前,让我们先了解一下虚拟化技术。在计算机领域中,虚拟化技术可以分为两类:重量级的虚拟机(VM)和轻量级的容器。...
基于docker构建hadoop分布式集群,可以适用于swarm云,k8s云,mesos云。
Docker(Hadoop_3.3.1+HBase_2.4.16+Zookeeper_3.7.1+Hive_3.1.3 )配置文件 搭建集群环境
Docker 本身就是基于 Linux 的,所以首先以我的一台服务器做实验。虽然最后跑 wordcount 已经由于内存不足而崩掉,但是之前的过程还是可以参考的。 连接服务器 使用 ssh 命令连接远程服务器。 ssh root@[Your IP ...
001
教程:在linux虚拟机下(centos),通过docker容器,部署hadoop集群。一个master节点和三个slave节点。
请记住,在本指南中,我不会向您展示如何在Docker上安装Hadoop,该映像已准备就绪,只需按照说明进行测试即可。 在具有Ubuntu发行版Linux机器上完成了以下步骤。首先,您需要安装码头工人,如果没有,请运行以下...
hadoop-cluster-docker, 在 Docker 容器中运行 Hadoop 在 Docker 容器内运行Hadoop集群博客:在 Docker 更新中运行Hadoop集群。博客:基于Docker搭建Hadoop集群之升级版 3节点Hadoop集群 1.拉 Docker 图像sudo do
docker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop资源包.txtdocker部署hadoop...
对各个节点指定好功能 maseter为主节点,hadoop01 为从节点和datanode hadoop02 为yarn主节点负责各个节点的资源调度, hadoop02,hadoop03为datanode节点 OS hostname IP Centos8 hadoop-master ...
在这个场景中,Dockerfile 被用来创建一个包含 Hadoop 集群环境的 Docker 映像。以下是一些可能的关键指令: 1. `FROM`: 指定基础镜像,可能是基于 Ubuntu 或 CentOS 的 Linux 发行版,因为它们是常见的 Hadoop ...
基于 Docker 构建 Hadoop 平台
docker hadoop
docker-hadoop-集群 Docker上的多节点集群,用于自我开发。 docker-hadoop-cluster适用于测试具有多个节点的Hadoop补丁。从Hadoop源代码构建映像hadoop服务的基本映像。 该映像包括JDK,hadoop软件包配置等。该映像...
里面包含Hadoop2.7,jdk1.8以及写好的Dockerfile文件,还有配置文件
阿里云ubuntu16.04基于docker搭建hadoop详细操作步骤......里面都是详细的脚本文件,对照着我的博客做应该是没有问题的.
docker-hadoop, 在Ubuntu上,用于运行Hadoop的Dockerfile Hadoop的 Docker 映像 支持的标签和相应的Dockerfile 链接2.6.0/Dockerfile2.5.2/Dockerfile2.5.1/Dockerfile2.5.0/Dockerfile2.4.