1.宿主机(windwos)与客户机(安装在虚拟机中的linux)网络连接
1.1 host-only 宿主机与客户机单独组网
好处:网络隔离
坏处:虚拟机与其他服务器之间不能通讯
1.2 bridge 客户机与宿主机在同一个局域网中。
好处:都在同一个局域网,可以互相访问
坏处:不安全
-----------------------------------------------
2.hadoop的伪分布安装步骤
【使用root用户登录,su root的话有些权限没有】
2.1 设置静态ip
在centos桌面右上角的图标上,右键修改。
重启网卡,执行命令service network restart
验证:执行命令 ifconfig
2.2 修改主机名
<1>修改当前会话中的主机名,执行命令hostname hadoop
<2>修改配置文件中的主机名,执行命令 vi /etc/sysconfig/network
验证:重启机器
2.3 把hsotname和ip绑定
执行命令vi /etc/hosts,增加一行内容,如下 192.168.56.101 hadoop
保存退出
验证:ping hadoop
2.4关闭防火墙
执行命令 service iptables stop
验证:service iptables status
2.5 关闭防火墙的自动运行
执行命令 chkconfig iptables off
验证: chkconfig --list |grep iptables
2.6 SSH(sercure shell)的免密码登陆
<1>执行命令 ssh-keygen -t rsa 产生秘钥,位于~/.ssh文件下
<2>执行命令 cp~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
验证: ssh hadoop(主机名)
2.7 安装JDK
<1> 执行命令 rm -rf /usr/local/* 删除所用内容
<2>使用FTP工具把jdk文件从windows复制到 /usr/local目录下
<3>执行命令 chmod u+x jdk-6u24-linux-i586.bin 赋予执行权限
<4>执行命令 ./jdk-6u24-linux-i586.bin 解压缩
<5>执行命令 mv jdk1.6.0_24 jdk 重命名
<6>执行命令 vi /etc/profile 设置环境变量,增加了2行内容
export JAVA_HOME=/usr/local/jdk
export PATH=.:$JAVA_HOME/bin:$PATH
保存退出
执行命令 source /etc/profile 让该设置立即生效
验证:java -version
2.8 安装hadoop
<1> 执行命令 tar -zxvf hadoop-1.1.2.tar.gz 进行解压缩
<2>执行命令 mv hadoop-1.1.2 hadoop 重命名
<3>执行命令 vi /etc/profile 设置环境变量,
增加1行内容
export HADOOP_HOME=/usr/local/hadoop
修改了一行内容
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
保存退出
执行命令 source /etc/profile 让该设置立即生效
vi编辑器 : vi 只读,不能写;编辑,能读,也能写;需要执行命令; 按Esc键,然后按shift+: 输入wq保存退出命令
<4>修改hadoop的配置文件,位于$HADOOP_HOME/conf目录下的配置:
修改4个配置文件,分别是hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml
具体修改内容:
1.【hadoop-env.sh 修改第9行,内容如下:】
export JAVA_HOME=/usr/local/jdk/
2.【core-site.xml修改内容如下:】
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://hadoop:9000</value>
<description>change your own hostname</description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
3.【hdfs-site.xml修改内容如下:】
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>
4.【mapred-site.xml修改内容如下:】
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>hadoop:9001</value>
<description>change your own hostname</description>
</property>
</configuration>
<5>执行命令 hadoop namenode -format 对hadoop进行格式化
<6>执行命令 start-all.sh启动
验证:(1)执行命令jps,发现5个java进程,分别是NameNode、DataNode、SecondayNameNode、jbtracker、tasktracker
(2)通过浏览器 http://hadoop:50070 和http://hadoop:50030
******可以修改 windows的C:\Windows\System32\drivers\etc\hosts文件*****
修改内容 192.168.56.101 hadoop
2.9 NameNode进程没有启动成功?
(1)没有格式化
(2)配置文件只copy,不修改
(3)hostname与ip没有绑定
(4)SSH的免密码登陆没有配置成功
3.0 多次格式化hadoop也是错误的?
方法:删除/usr/local/hadoop/tmp文件夹,重新格式化
3.1 去除hadoop的启动过程中警告信息
查看more start-all.sh文件 发现执行的是 hadoop-config.sh
再查看more hadoop-config.sh 发相警告语句
给$HADOOP_HOME_WARN_SUPPRESS设置任意值
vi /etc/profile
添加 export HADOOP_HOME_WARN_SUPPRESS=1
保存退出
执行命令 source /etc/profile 让该设置立即生效
验证:启动 start-all.sh
分享到:
相关推荐
本书《零基础学习hadoop到上手工作线路指导》是由about云网络书籍团队编写,旨在为大数据领域零基础学习者提供从入门到实践的全程指导。书中包含了作者以及许多初学者的共同学习经验与心得,详细介绍了学习Hadoop所...
《Hadoop2.2.0安装配置及实例教程入门宝典》 ...通过学习,你将具备独立搭建Hadoop环境并编写MapReduce程序的能力,为后续的大数据学习和应用打下坚实基础。在大数据时代,掌握Hadoop技能将助你在职业生涯中占据优势。
2、能够在linux环境搭建hadoop、hbase等的伪分布和分布模式,进入公司后可以自己搭建环境; 3、能够使用java语言、shell命令行两种方式操作hadoop、zookeeper、hbase、hive、sqoop等,进入公司可以直接上手工作,不...
1. 快速入门指南:这部分内容通常是为新手准备的,介绍如何快速安装和配置Hadoop,并运行一些基本的命令和程序,帮助用户快速上手并体验Hadoop的强大功能。 2. 集群搭建:详细介绍了如何构建和配置Hadoop集群。这...
- 下载`Hadoop-eclipse-Plugin-2.5.2.jar`插件,并将其放置在MyEclipse安装目录下的`plugins`文件夹内。 - 重启MyEclipse后,在“Project Explorer”窗口中可以看到新增的“DFS Locations”项,表明插件已成功加载...
在IT领域,Hadoop是一个广泛使用的开源框架,主要用于大数据处理和分析。这个压缩包文件"**Hadoop学习及实战资料...在学习过程中,建议结合实践,动手搭建Hadoop环境,编写和运行MapReduce程序,以达到最佳的学习效果。
"cluster_setup.pdf"提供了在集群上部署和配置Hadoop的指南,对于想要搭建Hadoop环境的人来说非常有用。"quickstart.pdf"是快速入门指南,帮助初学者快速上手Hadoop。 "commands_manual.pdf"包含了Hadoop命令行工具...
在Hadoop和Spark的部署和配置章节中,作者指导读者如何在虚拟机集群上安装JDK,如何配置和复制虚拟机集群,以及如何进行网络配置和SSH免密码登录等,这些是搭建Hadoop和Spark集群环境的基础操作。Hadoop安装、配置与...
- **通用性强:**Spark生态圈即BDAS(Berkeley Data Analytics Stack)包含了一系列组件,如Spark Core、Spark SQL、Spark Streaming、MLlib和GraphX等,涵盖了从内存计算到实时处理、即席查询、机器学习以及图处理...
以电商项目为依托,带领你从0基础开始上手,逐步掌握大数据核心技术(如:HDFS、YARN、MapReduce以及Hive),并使用这些技术进行实战,最终完成电商行为日志分析项目,让你轻松入门大数据! 项目博客 spark-train, ...
该实战手册详细介绍了 EasyHadoop 的使用步骤,从基础环境的搭建到集群的配置,再到具体组件的安装和优化,为用户提供了一套完整的实践指南。文档旨在帮助新手快速上手,同时也为有经验的 Hadoop 用户提供了一种高效...
通过上述内容的总结梳理,可以清晰地看出“开源力量公开课视频教程系列”覆盖了多个领域的关键技术知识点,并提供了从理论到实践的全面指导,对于IT行业的从业者和爱好者来说具有很高的学习价值。
如果你是零基础,可以先参考“零基础学习hadoop到上手工作线路指导”(初级篇)。Spark环境搭建后,运行一些官方提供的例子,可以帮助你初步感受Spark的编程模型和性能。一旦环境搭建好,例子也运行完毕,那么你就...
- 学习搭建Hadoop数据分析系统集群,包括服务器配置、JDK安装、Hadoop集群部署和Hive的配置与测试。 通过这个学习路线,你将能够搭建海量数据的离线计算平台,根据业务需求设计存储方案,并实现MapReduce分布式...