`
Chicago09
  • 浏览: 14936 次
社区版块
存档分类
最新评论

《自己动手写云盘》 – 搭建Hadoop环境

阅读更多

个人主页:http://www.tongtongxue.com/archives/4578.html

  软件准备

(1) hadoop-2.6.0.tar.gz
(2) jdk-7u67-linux-x64.tar.gz
(3) VMware Workstation Pro
(4) CentOS-6.4-x86_64-minimal.iso
注意:此次是利用VM搭建Hadoop的伪分布模式

  新建CentOS虚拟机

(1)创建新的虚拟机



 

(2)选择“自定义”




 

(3)选择ISO镜像文件



 

(4)命名



 

(5)指定虚拟机安装位置



 

(6)一直下一步,到要“完成”时,将“创建后开启此虚拟机”的选项去掉



 

(7)编辑虚拟机设置



 

(8)移除“autoinst.iso”



 

(9)开启虚拟机

 

(10)“Disc Found”中选择“Skip”



 

(11)语言选择“English”



 

(12)键盘选择“U.S. English”



 

(13)编辑HostName



 

(14)时区选择“上海“



 

(15)设置密码



 

   新建yun用户

先用root用户进入后,输入如下操作:

useradd yun

按回车,接下来输入

passwd yun

按回车后,系统会提示设置密码

安装JDK

(1)将jdk-7u67-linux-x64.tar.gz通过Xshell工具上传后
(2)解压文件

tar -zxvf jdk-7u67-linux-x64.tar.gz

(3)设置环境变量

export JAVA_HOME=/opt/jdk1.7.0_67
export PATH=$JAVA_HOME/bin:$PATH 
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

  安装Hadoop

(1)配置SSH无密码登录节点,首先安装openssh-server

yum install openssh-server

(2)执行

ssh-keygen -t rsa

(3)将公钥名修改成authorized_keys

cd ~/.ssh
mv id_rsa.pub authorized_keys

(4)配置core-site.xml

<configuration>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/opt/hadoop/tmp</value>
  </property>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://yunpan:9000</value>
  </property>
</configuration>

(5)配置hdfs-site.xml

<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>
<property>
  <name>dfs.namenode.name.dir</name>
  <value>file:/opt/hadoop/dfs/name</value>
</property>
<property>
  <name>dfs.datanode.data.dir</name>
  <value>file:/opt/hadoop/dfs/data</value>
</property>
<property>
  <name>dfs.permissions</name>
  <value>false</value>
</property>

(6)yarn-site.xml配置

<configuration><!-- Site specific YARN configuration properties -->
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
</configuration>

(7)配置slaves
在该文件中输入datanode节点的ip,由于是伪分布式的,则里面只要配置目前的centos的ip或者域名

(8)配置环境变量

export HADOOP_HOME=/opt/hadoop
然后加入到PATH中
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

(9)格式化

hdfs namenode -format

(10)启动
由于我们只需要HDFS分布式系统,以启动时只要输入

sbin/start-dfs.sh

  关注微信公众号

 

 

  • 大小: 25 KB
  • 大小: 24.8 KB
  • 大小: 14 KB
  • 大小: 8.8 KB
  • 大小: 8.2 KB
  • 大小: 12.2 KB
  • 大小: 14.8 KB
  • 大小: 17 KB
  • 大小: 23.8 KB
  • 大小: 11.7 KB
  • 大小: 55.1 KB
  • 大小: 47.8 KB
  • 大小: 26 KB
  • 大小: 84.6 KB
  • 大小: 24.6 KB
  • 大小: 26.9 KB
1
0
分享到:
评论

相关推荐

    基于hadoop的云盘系统

    【标题】基于Hadoop的云盘系统 在云计算领域,数据存储和管理是核心问题之一。基于Hadoop的云盘系统是一种分布式存储解决方案,利用Hadoop的可扩展性和高容错性来处理大规模数据。Hadoop是Apache软件基金会的一个...

    基于hadoop的web云盘系统

    这是一个基于hadoop的云盘系统,实现的界面是用javaweb完成的,使用的是spring Struts2 hibernate集合框架,配有sql文件。直接导入后运行这是一个基于hadoop的云盘系统,实现的界面是用javaweb完成的,使用的是...

    云盘项目 基于hadoop集群.zip

    【云盘项目基于Hadoop集群】的实现是一个典型的分布式存储和计算的应用,它利用了Hadoop的分布式文件系统(HDFS)以及MapReduce计算框架。Hadoop是Apache软件基金会的一个开源项目,旨在处理和存储海量数据,尤其...

    Hadoop分布式云盘系统

    基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统。使用Hadoop HDFS作为文件存储系统、HBase作为数据存储仓库,采用SpringMVC+Spring框架实现,包括用户注册与登录、我的网盘、关注用户、我的分享、我...

    私有云盘seafile搭建文档

    私有云盘 Seafile 搭建文档 私有云盘 Seafile 搭建文档是指使用 Docker 容器服务搭建私有云盘 Seafile 的过程。下面是该过程的详细步骤: 一、安装 Docker 容器服务 首先,需要安装 Docker 容器服务。使用 yum ...

    基于hadoop的百度云盘+源代码+文档说明

    基于hadoop的百度云盘+源代码+文档说明 -------- 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到96分,放心下载使用! &lt;项目...

    基于hadoop实现的百度云盘.zip

    【标题】:“基于hadoop实现的百度云盘” 在当今大数据时代,分布式计算技术成为了处理海量数据的关键。Hadoop作为一款开源的分布式计算框架,因其高效、可扩展性以及容错性而广受青睐。本项目“基于hadoop实现的...

    基于hadoop的简易云盘实现.zip

    这个简易云盘的实现可能是为了让学生或开发者了解如何在分布式环境中构建存储系统,或者作为学习Hadoop应用的一个实践项目。 【描述】"基于hadoop的简易云盘实现"表明,该实现将Hadoop的核心特性,如分布式文件系统...

    基于Hadoop的网路云盘.zip

    本篇文章将深入探讨基于Hadoop构建网络云盘的相关知识,帮助读者理解Hadoop的核心概念,以及如何利用Hadoop实现网络云盘的搭建和应用。 首先,我们需要理解Hadoop的核心组件。Hadoop由两个主要部分组成:Hadoop ...

    基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统.zip

    这是一个基于Java技术栈,利用SpringMVC、Spring、HBase和Maven构建的Hadoop分布式云盘系统的项目。该项目旨在实现一个高效的、可扩展的云存储解决方案,利用Hadoop的分布式特性来处理大规模数据存储需求。 首先,...

    大数据企业实训项目:基于SpringMVC+Spring+HBase+Maven搭建的Hadoop分布式云盘系统

    基于Hadoop分布式云盘系统使用Hadoop HDFS作为文件存储系统、HBase作为数据存储仓库,采用SpringMVC+Spring框架实现,包括用户注册与登录、我的网盘、关注用户、我的分享、我收到的分享等五大功能模块。其中我的网盘...

    Hadoop大数据开发案例教程与项目实战 数据云盘+源代码+文档说明

    基于Hadoop开发出该系统。系统分为前台和后台两部分,前台采用 JSP 和Js编写界面和前端逻辑校验,后台开发主要采用Java语言,使用spring、bootmetro-master等Java EE开发框架,同时使用 MySQL、HDFS Java API等实现...

    基于Hadoop实现的数据云盘系统项目源码资料大全.zip

    基于Hadoop实现的数据云盘系统项目源码资料大全.zip基于Hadoop实现的数据云盘系统,实现不同用户有不同的存储空间,不同的用户身份有不同的权限操作等功能软件设计思路 1、用户登录模块设计 输入图片说明 2、检索...

    大数据 hadoop-3.1.3 linux 安装包

    Hadoop-3.1.3是Hadoop的稳定版本,提供了许多增强的功能和优化,使其更适合大规模分布式计算环境。在这个针对Linux系统的安装包中,我们将探讨Hadoop的基础知识、安装步骤以及在Linux环境下的配置和操作。 Hadoop由...

    hadoop-3.1.0.rar windows 环境依赖

    这个名为“hadoop-3.1.0.rar”的压缩包文件提供了在Windows环境下运行Hadoop所需的所有组件和依赖。在Windows上部署Hadoop可能与在Linux系统中有所不同,因为Hadoop最初是为类Unix系统设计的,但通过特定的配置和...

    基于hadoop的C端云盘项目,前端使用Javaswing搭建+源代码+文档说明

    基于hadoop的C端云盘项目,前端使用Javaswing搭建+源代码+文档说明 -------- 不懂运行,下载完可以私聊问,可远程教学 该资源内项目源码是个人的毕设,代码都测试ok,都是运行成功后才上传资源,答辩评审平均分达到...

    Hadoop3.1.3.rar

    这个名为"Hadoop3.1.3.rar"的压缩包文件包含了Hadoop 3.1.3版本的所有组件和相关文件,使得用户可以下载并进行安装以搭建自己的Hadoop集群。Hadoop 3.1.3是Hadoop发展的一个重要里程碑,它在3.x系列中引入了多项改进...

    海绵宝宝个人安全云盘系统环境搭建1

    在本文中,我们将深入探讨如何搭建“海绵宝宝个人安全云盘系统”的环境,这是一个强调安全性的个人云存储解决方案。为了确保系统的稳定运行,我们需要正确配置一系列的软件组件,包括Java开发环境、Maven项目管理...

Global site tag (gtag.js) - Google Analytics