Hadoop科普文—常见的45个问题解答
·Hadoop
hadoop工作linux
1.Hadoop集群可以运行的3个模式
·单机(本地)模式
·伪分布式模式
·全分布式模式
2.单机(本地)模式中的注意点?
在单机模式(standalone)中不会存在守护进程,所有东西都运行在一个JVM上。这里同样没有DFS,使用的是本地文件系统。单机模式适用于开发过程中运行MapReduce程序,这也是最少使用的一个模式。
3.伪分布模式中的注意点?
伪分布式(Pseudo)适用于开发和测试环境,在这个模式中,所有守护进程都在同一台机器上运行。
4.VM是否可以称为Pseudo?
不是,两个事物,同时Pseudo只针对Hadoop。
5.全分布模式又有什么注意点?
全分布模式通常被用于生产环境,这里我们使用N台主机组成一个Hadoop集群,Hadoop守护进程运行在每台主机之上。这里会存在Namenode运行的主机,Datanode运行的主机,以及tasktracker运行的主机。在分布式环境下,主节点和从节点会分开。
6.Hadoop是否遵循UNIX模式?
是的,在UNIX用例下,Hadoop还拥有“conf”目录。
7.Hadoop安装在什么目录下?
Cloudera和Apache使用相同的目录结构,Hadoop被安装在cd/usr/lib/hadoop-0.20/。
8.Namenode、Jobtracker和tasktracker的端口号是?
Namenode,70;Jobtracker,30;Tasktracker,60。
9.Hadoop的核心配置是什么?
Hadoop的核心配置通过两个xml文件来完成:1,hadoop-default.xml;2,hadoop-site.xml。这些文件都使用xml格式,因此每个xml中都有一些属性,包括名称和值,但是当下这些文件都已不复存在。
10.那当下又该如何配置?
Hadoop现在拥有3个配置文件:1,core-site.xml;2,hdfs-site.xml;3,mapred-site.xml。这些文件都保存在conf/子目录下。
11.RAM的溢出因子是?
溢出因子(Spillfactor)是临时文件中储存文件的大小,也就是Hadoop-temp目录。
12.fs.mapr.working.dir只是单一的目录?
fs.mapr.working.dir只是一个目录。
13.hdfs-site.xml的3个主要属性?
·dfs.name.dir决定的是元数据存储的路径以及DFS的存储方式(磁盘或是远端)
·dfs.data.dir决定的是数据存储的路径
·fs.checkpoint.dir用于第二Namenode
14.如何退出输入模式?
退出输入的方式有:1,按ESC;2,键入:q(如果你没有输入任何当下)或者键入:wq(如果你已经输入当下),并且按下Enter。
15.当你输入hadoopfsck/造成“connectionrefusedjavaexception’”时,系统究竟发生了什么?
这意味着Namenode没有运行在你的VM之上。
16.我们使用Ubuntu及Cloudera,那么我们该去哪里下载Hadoop,或者是默认就与Ubuntu一起安装?
这个属于Hadoop的默认配置,你必须从Cloudera或者Edureka的dropbox下载,然后在你的系统上运行。当然,你也可以自己配置,但是你需要一个Linuxbox,Ubuntu或者是RedHat。在Cloudera网站或者是Edureka的Dropbox中有安装步骤。
17.“jps”命令的用处?
这个命令可以检查Namenode、Datanode、TaskTracker、JobTracker是否正常工作。
18.如何重启Namenode?
·点击stop-all.sh,再点击start-all.sh。
·键入sudohdfs(Enter),su-hdfs(Enter),/etc/init.d/ha(Enter),及/etc/init.d/hadoop-0.20-namenodestart(Enter)。
19.Fsck的全名?
全名是:FileSystemCheck。
20.如何检查Namenode是否正常运行?
如果要检查Namenode是否正常工作,使用命令/etc/init.d/hadoop-0.20-namenodestatus或者就是简单的jps。
21.mapred.job.tracker命令的作用?
可以让你知道哪个节点是JobTracker。
22./etc/init.d命令的作用是?
/etc/init.d说明了守护进程(服务)的位置或状态,其实是LINUX特性,和Hadoop关系不大。
23.如何在浏览器中查找Namenode?
如果你确实需要在浏览器中查找Namenode,你不再需要localhost:8021,Namenode的端口号是50070。
24.如何从SU转到Cloudera?
从SU转到Cloudera只需要键入exit。
25.启动和关闭命令会用到哪些文件?
Slaves及Masters。
26.Slaves由什么组成?
Slaves由主机的列表组成,每台1行,用于说明数据节点。
27.Masters由什么组成?
Masters同样是主机的列表组成,每台一行,用于说明第二Namenode服务器。
28.hadoop-env.sh是用于做什么的?
hadoop-env.sh提供了Hadoop中.JAVA_HOME的运行环境。
29.Master文件是否提供了多个入口?
是的你可以拥有多个Master文件接口。
30.hadoop-env.sh文件当下的位置?
hadoop-env.sh现在位于conf。
31.在Hadoop_PID_DIR中,PID代表了什么?
PID代表了“ProcessID”。
32./var/hadoop/pids用于做什么?
/var/hadoop/pids用来存储PID。
33.hadoop-metrics.properties文件的作用是?
hadoop-metrics.properties被用做“Reporting”,控制Hadoop报告,初始状态是“nottoreport”。
34.Hadoop需求什么样的网络?
Hadoop核心使用Shell(SSH)来驱动从节点上的服务器进程,并在主节点和从节点之间使用password-lessSSH连接。
35.全分布式环境下为什么需求password-lessSSH?
这主要因为集群中通信过于频繁,JobTracker需要尽可能快的给TaskTracker发布任务。
36.这会导致安全问题吗?
完全不用担心。Hadoop集群是完全隔离的,通常情况下无法从互联网进行操作。与众不同的配置,因此我们完全不需要在意这种级别的安全漏洞,比如说通过互联网侵入等等。Hadoop为机器之间的连接提供了一个相对安全的方式。
37.SSH工作的端口号是?
SSH工作的端口号是NO.22,当然可以通过它来配置,22是默认的端口号。
38.SSH中的注意点还包括?
SSH只是个安全的shell通信,可以把它当做NO.22上的一种协议,只需要配置一个密码就可以安全的访问。
39.为什么SSH本地主机需要密码?
在SSH中使用密码主要是增加安全性,在某些情况下也根本不会设置密码通信。
40.如果在SSH中添加key,是否还需要设置密码?
是的,即使在SSH中添加了key,还是需要设置密码。
41.假如Namenode中没有数据会怎么样?
没有数据的Namenode就不能称之为Namenode,通常情况下,Namenode肯定会有数据。
42.当JobTracker宕掉时,Namenode会发生什么?
当JobTracker失败时,集群仍然可以正常工作,只要Namenode没问题。
43.是客户端还是Namenode决定输入的分片?
这并不是客户端决定的,在配置文件中以及决定分片细则。
44.是否可以自行搭建Hadoop集群?
是的,只要对Hadoop环境足够熟悉,你完全可以这么做。
45.是否可以在Windows上运行Hadoop?
你最好不要这么做,RedHatLinux或者是Ubuntu才是Hadoop的最佳操作系统。在Hadoop安装中,Windows通常不会被使用,因为会出现各种各样的问题。因此,Windows绝对不是Hadoop的推荐系统。
|
分享到:
相关推荐
6. HBase的存储底层:HBase的数据存储在Hadoop的HDFS上,主要包括HFile和HLog File两种文件格式。 三、Scala闭包知识点 7. Scala的闭包描述:没有给出具体错误选项,闭包是具有自由变量的函数,能够记住其定义时的...
数据分析是信息技术领域中一个至关重要的分支,它涉及对大量数据进行收集、清洗、转换、建模和解释,以便为企业决策提供有力支持。在本篇中,我们将深入探讨数据分析的核心概念、常用工具和技术,以及如何应对数据...
这份名为“武汉IT公司笔试题集锦”的资源是2018年收集的,主要针对的是武汉地区的IT公司的笔试环节。这些题目集合了多家公司的笔试题,为准备参加IT行业面试的求职者提供了宝贵的参考资料。这里我们将深入探讨一下这...
- **大数据处理**:Hadoop、Spark等大数据处理框架,MapReduce和Spark RDD的概念。 5. **产品设计与运营**: - **用户需求分析**:市场调研、用户画像、需求收集与分析。 - **产品设计**:产品生命周期管理、...
- 运维基础:监控、日志收集、自动化部署、故障排查等。 - DevOps:持续集成/持续部署(CI/CD)工具的使用,如Jenkins、GitLab CI/CD。 - 云服务:了解AWS、Azure、Google Cloud等云服务的运维实践。 **笔试题解析...
3. **大数据**:Hadoop、Spark、NoSQL数据库和数据挖掘等是IBM在大数据处理中的关键技术,面试可能会涉及数据处理流程、ETL(抽取、转换、加载)以及数据分析工具的使用。 4. **区块链**:IBM是区块链技术的积极...
本压缩包文件中收集的“笔试面试题”正是针对这些公司的面试准备资料,涵盖了多个领域的计算机科学和技术知识。 首先,对于华为、中兴这样的通信技术巨头,面试中可能会涉及到网络协议、数据通信、无线通信技术以及...
大数据处理是当前IT行业最热门的技术之一,这篇文章收集了互联网上经典的大数据处理题目,对面试笔试非常有帮助。下面我们将对这些知识点进行详细的解释和分析。 1. Hadoop 安装步骤 Hadoop 是大数据处理的核心...
流行科技java笔试题答案版权所有 (c) 2015,英特尔公司。 BigBench 规范(“软件”)的大数据基准是根据许可提供的,只能根据该许可的条款使用或复制。 本文档未通过禁止反言或其他方式授予任何知识产权的明示或暗示...
你需要熟悉Java语法、面向对象设计原则(如封装、继承、多态)、异常处理、垃圾收集机制、内存管理以及JVM的工作原理。同时,对集合框架(如List、Set、Map接口及其实现类)的掌握也非常重要,包括它们的特点、性能...
"IT公司面试大全(收集)"这个资源很可能包含了大量的面试问题和解答,帮助求职者准备即将到来的面试挑战。这篇内容我们将重点讨论与"数据库笔试题汇总.doc"相关的知识点,这通常会涵盖数据库的基础概念、设计、优化...
3. FusionInsightHD系统中Oozie作业提交:Oozie是一个用于管理和调度Hadoop作业的工作流管理系统,所以在提交作业前,需要上传作业依赖的配置文件和jar包到HDFS。因此,答案为A.正确。 4. DStream对象生成方法:...
同时,实践能力至关重要,学校应设立专门的实训基地,让学生通过实际项目操作,掌握Hadoop、Spark等大数据处理框架,提升数据分析和解决实际问题的能力。 其次,校企合作是提升人才培养质量的关键。高职院校可以与...
- **大数据**:包括数据挖掘、数据清洗、数据存储(如Hadoop HDFS)、数据处理(如MapReduce、Spark)、数据分析(如SQL、Python的Pandas库)等,以及大数据应用如推荐系统、预测分析等。 - **云计算**:主要涵盖...
它包含了“本周收集的面试题和笔试题”,这意味着内容可能是近期热门的技术问题,反映了当前IT行业的关注点。下面将对这个资源中的可能知识点进行详细的阐述。 1. 数据结构与算法:面试中,数据结构和算法是基础且...
- Hadoop和Spark是大数据处理的常用框架,Hadoop适合批处理,Spark则适用于实时计算。 - 数据挖掘是大数据分析的重要部分,包括预处理、建模和评估。 4. **区块链**: - 区块链是一种分布式数据库,记录数据的...
10. **分布式系统**:对分布式架构有一定的理解,包括分布式缓存(如Redis)、分布式计算(如Hadoop、Spark)、分布式服务治理(如Dubbo、Spring Cloud)、分布式一致性(如Zookeeper、Raft、Paxos)等。 以上是...
- **分代收集理论**:将内存划分为新生代和老年代,采用不同的回收策略。 #### 序列化 - **概念**:将对象的状态信息转换为可以存储或传输的形式的过程。 - **实现**:通过实现`Serializable`接口来支持序列化。 -...