1.Hadoop
http://mirrors.cnnic.cn/apache/hadoop/common/
版本众多,有0.2.x,1.0.x,,1.2.x,2.0.x,2.2.x,2.3.x。在安装是需要考虑各个版本的和其他产品的兼容性,比如hbase,hive,pig。现在官网上的稳定版本是2.2.0.
本次采用安装2.3.x
1、这里我们搭建一个由三台机器组成的集群:
10.3.216.79 ubuntu/123456 hadoop.main nn/snn/rm ubuntu 64bit
10.3.216.78 ubuntu/123456 hadoop.slave1 dn/nm ubuntu 64bit
10.3.216.77 ubuntu/123456 hadoop.slave2 dn/nm ubuntu 64bit
1.1 上面各列分别为IP、user/passwd、hostname、在cluster中充当的角色(namenode, secondary namenode, datanode , resourcemanager, nodemanager)
1.2 Hostname可以在/etc/hostname中修改(ubuntu是在这个路径下,redhat稍有不同)
1.3 这里我们为每台机器新建了一个账户ubuntu.这里需要给每个账户分配sudo的权限。
2、修改/etc/hosts 文件,增加三台机器的ip和hostname的映射关系
10.3.216.79 hadoop.main
10.3.216.78 hadoop.slave1
10.3.216.77 hadoop.slave2
3、打通main到slave1、slave2的SSH无密码登陆
3.1 安装ssh
一般系统是默认安装了ssh命令的。如果没有,或者版本比较老,则可以重新安装:
sodu apt-get install ssh
3.2设置local无密码登陆
安装完成后会在~目录(当前用户主目录,即这里的/home/ubuntu)下产生一个隐藏文件夹.ssh(ls -a 可以查看隐藏文件)。如果没有这个文件,自己新建即可(mkdir .ssh)。
具体步骤如下:
1、 进入.ssh文件夹
2、 ssh-keygen -t rsa 之后一路回 车(产生秘钥)
3、 把id_rsa.pub 追加到授权的 key 里面去(cat id_rsa.pub >> authorized_keys)
4、 重启 SSH 服 务命令使其生效 :service sshd restart(这里RedHat下为sshdUbuntu下为ssh)
此时已经可以进行ssh localhost的无密码登陆
【注意】:以上操作在每台机器上面都要进行。
3.3设置远程无密码登陆
这里只有main是master,如果有多个namenode,或者rm的话则需要打通所有master都其他剩余节点的免密码登陆。(将main的authorized_keys追加到slave1和salve2的authorized_keys)
进入main的.ssh目录
scp authorized_keys ubuntu@hadoop.main:~/.ssh/ authorized_keys_from_main
进入slave1的.ssh目录
cat authorized_keys_from_main>> authorized_keys
至此,可以在main上面ssh ubuntu@hadoop.salve1进行无密码登陆了。slave2的操作相同
其他的,需要安装jdk,注意需要选择和unbuntu64bit合适的版本。
第三部分 Hadoop 2.2安装过程
由于hadoop集群中每个机器上面的配置基本相同,所以我们先在namenode上面进行配置部署,然后再复制到其他节点。所以这里的安装过程相当于在每台机器上面都要执行。但需要注意的是集群中64位系统和32位系统的问题。
1、 解压文件
将第一部分中下载的hadoop-2.3.0-src.tar.gz解压到/opt路径下(或者将在64位机器上编译的结果存放在此路径下)。然后为了节省空间,可删除此压缩文件,或将其存放于其他地方进行备份。
切换root
su - root
chmod -R 777 /opt(每台机器都要操作)
解压
tar -xzvf hadoop-2.3.0-src.tar.gz
mv hadoop-2.3.0-src hadoop
注意:每台机器的安装路径要相同!!
由于是64位系统,需要自行编译hadoop并提前安装以下软件
protobuf
cmake
findbugs
ant
maven
gc
gc-cc++
以上各种google
2、 hadoop配置过程
配置之前,需要在main本地文件系统创建以下文件夹:
~/${HADOOP_HOME}/name
~/${HADOOP_HOME}/data
~/${HADOOP_HOME}/temp
这里要涉及到的配置文件有7个:
~/hadoop/etc/hadoop/hadoop-env.sh
~/hadoop/etc/hadoop/yarn-env.sh
~/hadoop/etc/hadoop/slaves
~/hadoop/etc/hadoop/core-site.xml
~/hadoop/etc/hadoop/hdfs-site.xml
~/hadoop/etc/hadoop/mapred-site.xml
~/hadoop/etc/hadoop/yarn-site.xml
以上个别文件默认不存在的,可以复制相应的template文件获得。
配置文件1:hadoop-env.sh
修改JAVA_HOME值(export JAVA_HOME=/usr/java/jdk1.7.0_40)
配置文件2:yarn-env.sh
修改JAVA_HOME值(exportJAVA_HOME=/usr/java/jdk1.7.0_40)
配置文件3:slaves (这个文件里面保存所有slave节点)
写入以下内容:
hadoop.slave1
hadoop.slave2
配置文件4:core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop.main:9000</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/opt/hadoop/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.hduser.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.hduser.groups</name>
<value>*</value>
</property>
</configuration>
配置文件5:hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop.main:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/opt/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/opt/hadoop/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
配置文件6:mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop.main:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop.main:19888</value>
</property>
</configuration>
配置文件7:yarn-site.xml
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>hadoop.main:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>hadoop.main:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>hadoop.main:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value> hadoop.main:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value> hadoop.main:8088</value>
</property>
</configuration>
3、复制到其他节点
这里可以写一个shell脚本进行操作(有大量节点时比较方便)
cp2slave.sh
#!/bin/bash
4、启动验证
4.1 启动hadoop
配置环境变量
su - root
vi /etc/profile
JAVA_HOME=/usr/lib/jdk/jdk1.7.0_45
JRE_HOME=/usr/lib/jdk/jdk1.7.0_45/jre
HADOOP_HOME=/opt/hadoop/
PATH=$HBASE_HOME/bin:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
HBASE_HOME=/opt/hbase
MAVEN_HOME=/opt/maven
PATH=$MAVEN_HOME/bin:$HBASE_HOME/bin:$PATH
FINDBUGS_HOME=/opt/findbugs202
PATH=$FINDBUGS_HOME/bin:$PATH
ANT_HOME=/opt/ant
PATH=$ANT_HOME/bin:$PATH
:wq
. /etc/profile
格式化namenode /hdfs namenode –format
启动hdfs: start-all.sh
此时在001上面运行的进程有:
15488 NameNode
15951 ResourceManager
15388 Jps
15773 SecondaryNameNode
9036 HMaster
slave1和slave2上面运行的进程有:
25747 Jps
8231 DataNode
22304 HRegionServer
8463 NodeManager
查看集群状态:./bin/hdfs dfsadmin –report
查看文件块组成: ./bin/hdfsfsck / -files -blocks
查看HDFS: http://10.3.216.79:50070
查看RM: http://10.3.216.79:8088
4.2 运行示例程序:
先在hdfs上创建一个文件夹
相关推荐
本文研究了基于计算机的大数据和云计算技术分析,讨论了大数据和云计算技术的定义、云计算与大数据分析的关系、增强数据处理能力的必要性、大数据基本处理流程分析等方面的内容。云计算技术的出现极大改善了数据的...
1. 实现了财务信息的整理、计算自动化:基于大数据云计算技术的软件可以整合企业财务数据,提高财务信息收集检索的效率和精准度,节约了企业财务信息整合计算的时间。 2. 提升了财务管理的效率和准确性:与传统的...
云计算技术的使用时间间隔较短,通常以分钟级和秒级的应用为主。云计算技术的核心是虚拟化软件,它能够提供按需服务、资源池化、快速弹性、可度量的服务等特性。 云计算技术对大数据时代的影响主要体现在以下几个...
财务决策流程的创新和改进,不仅需要对大数据和云计算技术的深入理解,还需要关注到财务工作人员技能的提升和信息化系统的建设。通过这些努力,财务管理能够更加精准地把握市场动态,及时调整财务策略,从而为学校或...
综上所述,大数据和云计算技术对会计信息化具有重要的推动作用,但同时也带来了一系列挑战。企业需要积极应对这些挑战,采取有效措施,以充分利用这些技术的优势,促进自身会计信息化进程。这样不仅能够丰富理论研究...
整体而言,本文围绕云计算环境下企业会计决策系统的研究主题,系统地分析了云计算的理论基础、服务模式、特点、面临的问题以及在企业会计决策系统中的应用,为企业在大数据时代下如何有效利用云计算技术提供了专业的...
本文探讨了在大数据和云计算技术的支持下,建筑企业财务管理领域的变革与优化策略。文章首先阐释了大数据和云计算对于建筑企业财务管理的重要意义,并从三个方面分析了它们带来的影响:增加财务信息数量、使财务管理...
物联网、大数据、云计算技术在煤矿安全生产中的应用,是现代矿业信息技术发展的重要趋势。随着技术的不断进步,煤矿生产过程中的自动化和信息化水平显著提高,为煤矿安全生产提供了强有力的技术支撑。 首先,物联网...
1. 云计算在财务管理中的应用:云计算技术使企业能够共享使用硬件、软件及人员资源。这不仅降低了企业运营成本,还增加了管理效率。特别对于中小企业来说,借助云计算,建立财务共享服务中心变得更为可行。 2. ...
大数据技术可以对生产过程中的各项数据进行实时收集、整理和分析,为企业制定生产计划和决策提供科学依据;云计算平台可以实现对全球供应链的协同管理和优化,有效降低采购和物流成本。 然而,在实际应用过程中仍...
大数据指的是那些无法在特定的时间范围内使用传统常规软件进行收集、整理和处理的数据集合。这些数据具有多样性和海量性,并且还在持续不断地增加。大数据的特点是数据种类繁多、数据量巨大,以及获取数据的速度极快...
### 大数据、云计算、物联网关键技术与未来 #### 一、大数据时代的关键概念与变革 - **大数据定义**: 大数据通常指的是所涉及的数据量规模非常庞大,以至于无法通过传统软件工具在合理的时间内完成数据的采集、...
特别是大数据与云计算技术的广泛应用,在推动着发展模式、工作模式和生活模式变革的同时,对个人信息安全构成了极大挑战。在这样的背景下,如何加强个人信息安全保护,构建有效的协同保护机制,已经成为迫切需要解决...
因此,医院需要利用云计算技术整理分布式信息数据,建立数据信息共享平台,从而全面控制医院的数据信息。 另外,医院信息化建设是一个复杂且专业性很强的工作,涉及到多个方面,包括硬件建设、软件开发、人才培养等...
档案管理信息化是现代信息技术在档案工作中的应用,它与大数据、云计算、人工智能有着密切的关联。大数据是指在规模、速度和复杂性上超出传统数据处理能力的海量、高增长和多样化的信息资产。云计算则是一种基于...
为了解决这些问题,需要建设一个智能化的养老保险业务档案影像管理系统,该系统将使用大数据技术和云计算技术,实现业务流程的自动化和智能化。 1.2 项目目标 本项目的主要目标是建设一个智能化的养老保险业务档案...
- 大数据的应用促进了云计算技术的发展,特别是对于数据处理和分析的需求。 2. **共同面临的挑战**: - **数据安全与隐私保护**:随着数据量的激增,如何确保数据的安全成为一大难题。 - **技术复杂性**:云计算...
大数据和云计算技术的出现,正在深刻影响着高校基金会的发展模式,使得基金会能够以更加高效的方式募集资金、管理和运作资金。在讨论这一话题时,有必要先明确大数据与云计算的基本概念及其在公益领域的应用。 ...
"大数据云计算学习总结.docx" 大数据云计算学习总结报告旨在总结...大数据云计算在银行业中的应用前景非常广阔,银行业可以通过大数据技术来提高经营模式、服务模式、营销模式的转型,并提高金融创新和管理升级。
云计算技术支持下的大数据会计分析平台在财政金融领域的应用,是指利用云计算强大的数据处理能力,结合大数据分析工具,对大量的会计数据进行整理、分析,以此来满足财政金融领域对数据分析的深度和广度的需求。...