Hadoop科普文—常见的45个问题解答
•Hadoop
hadoop工作linux
1.Hadoop集群可以运行的3个模式
• 单机(本地)模式
• 伪分布式模式
• 全分布式模式
2. 单机(本地)模式中的注意点?
在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个JVM上。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序,这也是最少使用的一个模式。
3. 伪分布模式中的注意点?
伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有守护进程都在同一台机器上运行。
4. VM是否可以称为Pseudo?
不是,两个事物,同时Pseudo只针对Hadoop。
5. 全分布模式又有什么注意点?
全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及task tracker运行的主机。在分布式环境下,主节点和从节点会分开。
6. Hadoop是否遵循UNIX模式?
是的,在UNIX用例下,Hadoop还拥有“conf”目录。
7. Hadoop安装在什么目录下?
Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。
8. Namenode、Job tracker和task tracker的端口号是?
Namenode,70;Job tracker,30;Task tracker,60。
9. Hadoop的核心配置是什么?
Hadoop的核心配置通过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在。
10. 那当下又该如何配置?
Hadoop现在拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。
11. RAM的溢出因子是?
溢出因子(Spill factor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。
12. fs.mapr.working.dir只是单一的目录?
fs.mapr.working.dir只是一个目录。
13. hdfs-site.xml的3个主要属性?
• dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)
• dfs.data.dir决定的是数据存储的路径
• fs.checkpoint.dir用于第二Namenode
14. 如何退出输入模式?
退出输入的方式有:1,按ESC;2,键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下Enter。
15. 当你输入hadoopfsck /造成“connection refused java exception’”时,系统究竟发生了什么?
这意味着Namenode没有运行在你的VM之上。
16. 我们使用Ubuntu及Cloudera,那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?
这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个Linux box,Ubuntu或者是Red Hat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。
17. “jps”命令的用处?
这个命令可以检查Namenode、Datanode、Task Tracker、 Job Tracker是否正常工作。
18. 如何重启Namenode?
• 点击stop-all.sh,再点击start-all.sh。
• 键入sudo hdfs(Enter),su-hdfs (Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenode start(Enter)。
19. Fsck的全名?
全名是:File System Check。
20. 如何检查Namenode是否正常运行?
如果要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenode status或者就是简单的jps。
21. mapred.job.tracker命令的作用?
可以让你知道哪个节点是Job Tracker。
22. /etc /init.d命令的作用是?
/etc /init.d说明了守护进程(服务)的位置或状态,其实是LINUX特性,和Hadoop关系不大。
23. 如何在浏览器中查找Namenode?
如果你确实需要在浏览器中查找Namenode,你不再需要localhost:8021,Namenode的端口号是50070。
24. 如何从SU转到Cloudera?
从SU转到Cloudera只需要键入exit。
25. 启动和关闭命令会用到哪些文件?
Slaves及Masters。
26. Slaves由什么组成?
Slaves由主机的列表组成,每台1行,用于说明数据节点。
27. Masters由什么组成?
Masters同样是主机的列表组成,每台一行,用于说明第二Namenode服务器。
28. hadoop-env.sh是用于做什么的?
hadoop-env.sh提供了Hadoop中. JAVA_HOME的运行环境。
29. Master文件是否提供了多个入口?
是的你可以拥有多个Master文件接口。
30. hadoop-env.sh文件当下的位置?
hadoop-env.sh现在位于conf。
31. 在Hadoop_PID_DIR中,PID代表了什么?
PID代表了“Process ID”。
32. /var/hadoop/pids用于做什么?
/var/hadoop/pids用来存储PID。
33. hadoop-metrics.properties文件的作用是?
hadoop-metrics.properties被用做“Reporting”,控制Hadoop报告,初始状态是“not to report”。
34. Hadoop需求什么样的网络?
Hadoop核心使用Shell(SSH)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-less SSH连接。
35. 全分布式环境下为什么需求password-less SSH?
这主要因为集群中通信过于频繁,Job Tracker需要尽可能快的给Task Tracker发布任务。
36. 这会导致安全问题吗?
完全不用担心。Hadoop集群是完全隔离的,通常情况下无法从互联网进行操作。与众不同的配置,因此我们完全不需要在意这种级别的安全漏洞,比如说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。
37. SSH工作的端口号是?
SSH工作的端口号是NO.22,当然可以通过它来配置,22是默认的端口号。
38. SSH中的注意点还包括?
SSH只是个安全的shell通信,可以把它当做NO.22上的一种协议,只需要配置一个密码就可以安全的访问。
39. 为什么SSH本地主机需要密码?
在SSH中使用密码主要是增加安全性,在某些情况下也根本不会设置密码通信。
40. 如果在SSH中添加key,是否还需要设置密码?
是的,即使在SSH中添加了key,还是需要设置密码。
41. 假如Namenode中没有数据会怎么样?
没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。
42. 当Job Tracker宕掉时,Namenode会发生什么?
当Job Tracker失败时,集群仍然可以正常工作,只要Namenode没问题。
43. 是客户端还是Namenode决定输入的分片?
这并不是客户端决定的,在配置文件中以及决定分片细则。
44. 是否可以自行搭建Hadoop集群?
是的,只要对Hadoop环境足够熟悉,你完全可以这么做。
45. 是否可以在Windows上运行Hadoop?
你最好不要这么做,Red Hat Linux或者是Ubuntu才是Hadoop的最佳操作系统。在Hadoop安装中,Windows通常不会被使用,因为会出现各种各样的问题。因此,Windows绝对不是Hadoop的推荐系统。
相关推荐
面向大数据挖掘的Hadoop框架K均值聚类算法(毕业论文)面向大数据挖掘的Hadoop框架K均值聚类算法(毕业论文)
2. **MapReduce改进Apriori算法**:在数据挖掘中,关联规则学习是常见的任务之一,Apriori算法是其中的经典算法。然而,原始的Apriori算法在处理大规模数据时效率较低。因此,论文中提到利用MapReduce改进Apriori...
HBase是建立在Hadoop之上的分布式数据库,设计用于处理PB级的数据。它是一个NoSQL数据库,支持列族存储,提供实时读写访问。HBase的数据模型是表格化的,每个表由行和列组成,列按列族组织。它的强一致性模型确保了...
随着互联网技术的快速发展及数据量的急剧增长,如何有效地管理和挖掘这些海量数据成为了一个亟待解决的问题。传统的数据挖掘技术在面对大规模数据集时往往显得力不从心。因此,开发出一种新的数据挖掘技术框架变得尤...
根据文件【Hadoop平台数据挖掘技术研究.pdf】的内容,以下是详细的知识点阐述: 一、Hadoop平台基础 Hadoop是一个由Apache基金会提供的开源框架,它允许使用简单的编程模型对大数据集进行分布式存储和处理。Hadoop...
"Hadoop 使用常见问题以及解决方法" Hadoop 作为一个大数据处理的开源框架,广泛应用于数据存储、处理和分析等领域。但是在使用 Hadoop 时,经常会遇到一些常见的问题,本文将对这些问题进行总结和解决。 Shuffle ...
Hadoop平台的数据挖掘分析与设计是一个涉及云计算技术、大数据存储和处理以及数据分析等多个领域的复杂过程。Hadoop作为一个开源的云计算平台,提供了一种新的数据处理架构,这使得它在数据挖掘领域有着广泛的应用。...
电梯安全大数据挖掘算法研究是一个涉及多个学科领域的研究主题,它结合了大数据技术、数据挖掘算法以及电梯安全专业知识。本文献主要探讨了利用Hadoop平台进行电梯安全数据的分析和挖掘,并重点研究了改进的K-Means...
利用持久化方法(JPA),解决了Hadoop的子任务无法共享数据的问题,提出了一个hadoop上的数据挖掘框架,可以完成树型结构。具体实现了DBtree。 下面是ris格式的引文,存盘后,可为endnote等文献管理软件导入。 TY ...
《数据挖掘三部曲3》中的HADOOP实战第二版中文清晰版是一本专为初学者和有经验的IT从业者设计的指南,旨在帮助读者深入理解并掌握大数据处理框架Hadoop的核心技术和应用。Hadoop是Apache软件基金会开发的一个开源...
本文将围绕“基于Hadoop云平台的水利普查数据挖掘系统的设计和实现”这一主题,深入探讨相关的关键知识点,包括Hadoop云平台、水利普查数据特点、数据挖掘技术,以及如何将Hadoop与数据挖掘技术结合来处理水利普查...
在大数据处理领域,Hadoop是一个不可或缺的开源框架,它提供了分布式存储(HDFS)和分布式计算(MapReduce)的能力。然而,在处理包含中文字符的数据时,用户可能会遇到中文乱码的问题。这个问题通常出现在数据读取...
考虑到推荐产品数据量呈指数增长,导致算法性能受限的问题,提出了基于云计算平台Hadoop的MR_AprioriDpc并行挖掘算法,应用于关联规则挖掘下的产品推荐。 最后,将挖掘结果应用于宽带客户信息推送系统,设计并实现...
Hadoop平台的数据挖掘之所以成功,主要得益于其分布存储基础和海量数据的存储计算能力。 Hadoop平台的数据挖掘分析是在Hadoop平台下的系统数据存储和处理功能的基础上,通过深入分析基于云计算平台的数据挖掘设计,...
通过Hadoop等大数据处理工具的使用,结合云计算技术,可以有效地处理和分析大规模的电商平台数据,挖掘出有价值的信息,为电商平台提供科学的决策支持,增强平台的竞争力。随着技术的发展,大数据挖掘技术将更加成熟...
在Hadoop集群上,数据挖掘算法的实现通常涉及多个组件,如HDFS用于存储大规模数据集,MapReduce用于并行处理和生成中间结果,YARN进行资源管理和任务调度,而HBase或Hive则用于数据查询和分析。在算法的整个实现过程...
本文提及的K-means算法是数据挖掘中常见的聚类算法之一。通过将其改写为MapReduce版本,可以在Hadoop平台上实现高效的数据聚类任务。在这个过程中,需要对K-means算法的原理有深入的了解,以及如何利用Hadoop平台...
该书主要围绕Hadoop这一核心框架,结合多个行业的真实案例,提供了全面的数据挖掘和分析的实践指导。 Hadoop作为开源的大数据处理框架,其核心组件包括HDFS(Hadoop Distributed File System)和MapReduce。HDFS为...