环境虚拟机centos6.5
主机名h1 IP 192.168.137.11 作为DNS FNS的服务器
主机名h2 IP 192.168.137.12
主机名h3 IP 192.168.137.13
建立DNS(为了取代集群修改hosts带来的大量重复工作)
1.安装DNS在h1上面
检查命令:
rpm –q bind
rpm -q bind-chroot
安装命令:
yum -y install bind bind-chroot
2. 修改/etc/named.conf
主要修改这两个地方注意红色修改的部分
listen-on port 53 { any;};
allow-query { any; };
文件全内容:
//
// named.conf
//
// Provided by Red Hat bind package to configure the ISCBIND named(8) DNS
// server as a caching only nameserver (as a localhostDNS resolver only).
//
// See /usr/share/doc/bind*/sample/ for example namedconfiguration files.
//
options {
listen-onport 53 { any; };
listen-on-v6port 53 { ::1; };
directory "/var/named";
dump-file "/var/named/data/cache_dump.db";
statistics-file "/var/named/data/named_stats.txt";
memstatistics-file "/var/named/data/named_mem_stats.txt";
allow-query { any; };
recursionyes;
dnssec-enableyes;
dnssec-validationyes;
dnssec-lookasideauto;
/* Path toISC DLV key */
bindkeys-file"/etc/named.iscdlv.key";
managed-keys-directory"/var/named/dynamic";
};
logging {
channeldefault_debug {
file "data/named.run";
severity dynamic;
};
};
zone "." IN {
type hint;
file"named.ca";
};
include "/etc/named.rfc1912.zones";
include "/etc/named.root.key";
3. 修改/etc/named.rfc1912.zones
正反配置红色部分
// named.rfc1912.zones:
//
// Provided by Red Hat caching-nameserver package
//
// ISC BIND named zone configuration for zonesrecommended by
// RFC 1912 section 4.1 : localhost TLDs and addresszones
// andhttp://www.ietf.org/internet-drafts/draft-ietf-dnsop-default-local-zones-02.txt
// (c)2007 R W Franks
//
// See /usr/share/doc/bind*/sample/ for example namedconfiguration files.
//
zone "localhost.localdomain" IN {
type master;
file"named.localhost";
allow-update{ none; };
};
zone "localhost" IN {
type master;
file"named.localhost";
allow-update{ none; };
};
zone"1.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.0.ip6.arpa"IN {
type master;
file"named.loopback";
allow-update{ none; };
};
zone "1.0.0.127.in-addr.arpa" IN {
type master;
file"named.loopback";
allow-update{ none; };
};
zone "0.in-addr.arpa" IN {
type master;
file"named.empty";
allow-update{ none; };
};
zone "weir.com" IN {
type master;
file "weir.com.zone";
allow-update { none; };
};
zone "137.168.192.in-addr.arpa" IN {
type master;
file"137.168.192.in-addr.zone";
allow-update{ none; };
};
4.在/var/named目录下创建weir.com.zone和137.168.192.in-addr.zon文件(这里很重要每个地方都要看清楚怎么设置)
这里是将named.localhost 拷贝之后做的修改
cp -p named.localhost weir.com.zone
cp -p named.localhost 137.168.192.in-addr.zone
weir.com.zone文件内容:
$TTL 86400
@ IN SOA h1.weir.com. chizk.www.weir.com. (
0 ; serial (d.adams)
1D ; refresh
1H ; retry
1W ; expiry
3H ) ; minimum
@ IN NS h1.weir.com.
h1.weir.com. IN A 192.168.137.11
h2.weir.com. IN A 192.168.137.12
h3.weir.com. IN A 192.168.137.13
h4.weir.com. IN A 192.168.137.14
h5.weir.com. IN A 192.168.137.15
h6.weir.com. IN A 192.168.137.16
137.168.192.in-addr.zone文件内容:
$TTL 86400
@ IN SOA h1.weir.com. chizk.www.weir.com. (
0 ; serial (d.adams)
1D ; refresh
1H ; retry
1W ; expiry
3H ) ; minimum
@ IN NS h1.weir.com.
11 IN PTR h1.weir.com.
12 IN PTR h2.weir.com.
13 IN PTR h3.weir.com.
14 IN PTR h4.weir.com.
15 IN PTR h5.weir.com.
16 IN PTR h6.weir.com.
修改正向文件和反向文件属组
[root@h1 named]# chgrp named weir.com.rev
[root@h1 named]# chgrp named weir.com.zone
5. 添加DNS域名服务器ip(这里注意修改/etc/resolv.conf是没用的,重启电脑就失效了)
先说h1电脑,因为是DNS服务器所以我没有配置这一项 ,这里可能与我的网络连接有关系
下面说其他节点都如下配置:
这里需要找到/etc/sysconfig/network-scripts/ifcfg-eth0
主要是加入DNS1=192.168.137.11
完整内容:
DEVICE=eth0
TYPE=Ethernet
UUID=5a32d5ab-af65-44bc-9d21-c757fb44add3
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=none
IPADDR=192.168.137.12
PREFIX=16
GATEWAY=192.168.137.1
DEFROUTE=yes
IPV4_FAILURE_FATAL=yes
IPV6INIT=no
NAME="System eth0"
HWADDR=08:00:27:17:25:7F
LAST_CONNECT=1402057925
DNS1=192.168.137.11
6.启动DNS(防火墙关闭)
service named start
自动开启:
查看:chkconfig –listnamed
设置启动级别:chkconfig --level 123456 named on
7.测试:
nslookup h1.weir.com
nslookup 192.168.137.12
host h1.weir.com
host 192.168.137.12
至此DNS配置完成。
配置NFS
rw |
允许NFS卷上的读和写请求,默认是不允许任何请求,还可以使用ro选项 |
sync |
仅在修改被提交到稳定的存储器后响应请求,在这个版本及将来的版本中,sync是默认的,如果需要async的话必须明确地指出,为了帮助系统管理员察觉到这个改变,如果既没有指定sync也没有指定async的话,“exportfs”将会给出一个警告信息 |
no_wdelay |
如果设置了async这个选项就不起作用,正常情况下,如果NFS服务器怀疑有另一个相关的写请求正在处理或马上就要达到,NFS服务器将稍微延迟提交写请求到磁盘,这就允许使用一个操作提交多个写请求到磁盘,这样可以改善性能,如果NFS服务器接收到的主要是些独立的小请求,这个行为的确会降低性能,因此可将no_wdelay关闭,默认可以是使用wdelay选项进行明确地请求 |
no_root_squash |
从uid/gid 0到匿名的uid/gid的root_squash映射请求,no_root_squash关闭了root squashing |
insecure |
insecure选项允许NFS客户端不使用NFS保留的端口 |
no_subtree_check |
这个选项启用了subtree检查,这样就再添加了一层安全系数,但是在某些环境下不可靠。 如果文件系统的子目录被导出了,但是整个文件系统是不行的,服务器不但必须检查访问的是适当的文件系统中的文件(很简单)而且还要检查导出树中的文件(比较困难),这个检查就叫做subtree_check。 为了执行这个检查,服务器必须提供一些关于文件位置的信息,在访问的文件被重命名且被一个客户端打开时可能引起问题。(在许多简单的实例中它仍然可以工作) 如果文件系统导出时使用了no_root_squash选项(参考下面的内容),subtree检查还可用于确保目录内的文件只有root有权访问,即使文件本身允许更多的人访问。 |
1. 安装NFS
检查:
rpm -qa | grep nfs
rpm -qa | grep rpcbind
没有安装:
yum install nfs-utils rpcbind
2. 启动NFS
检查:
service nfs status
servicerpcbind status
启动:
service nfs start
开机自启动:
chkconfig --level 123456 nfs on
chkconfig --level 123456 rpcbindon
3. 设置共享目录
这里随意,例如:/home/gx
在/etc/exports 里面添加:
/home/gx *(insecure,sync,rw,no_root_squash)
重启rpcbind和nfs
service rpcbind restart
service nfs restart
查看一下:
showmount -elocalhost
4.其他节点(客户端)
建立挂载点。比如在根目录下mkdir/nfs_share
命令:mount -t nfs 192.168.137.11:/home/gx /nfs_share/
测试:在h1上的目录下创建文件在其他节点是否看得到
5开机自动挂载nfs共享目录
修改/etc/fstab文件
在最后加入:
192.168.137.11:/home/gx /nfs_share nfs defaults 1 1
#
# /etc/fstab
# Created by anaconda on Tue May 27 12:29:32 2014
#
# Accessible filesystems, by reference, are maintainedunder '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/orblkid(8) for more info
#
/dev/mapper/vg_weir-lv_root / ext4 defaults 1 1
UUID=4ea6963a-f2cd-4391-8808-d6bd76ee1125 /boot ext4 defaults 1 2
/dev/mapper/vg_weir-lv_swap swap swap defaults 0 0
tmpfs /dev/shm tmpfs defaults 0 0
devpts /dev/pts devpts gid=5,mode=620 0 0
sysfs /sys sysfs defaults 0 0
proc /proc proc defaults 0 0
192.168.137.11:/home/gx /nfs_share nfs defaults 1 1
至此NFS配置完成。
6.实现nfs共享ssh密钥
这里需要了解ssh免密码登陆的原理。
我大致简单说一下:
ssh-keygen -t rsa 产生私钥和公钥,id_rsa(私钥)和id_rsa.pub(公钥)
比如:h1电脑需要免密码登陆到h2电脑,需要在h1上面的~/.ssh/里面产生私钥和公钥 将公钥拷贝到h2的~/.ssh/里面并且修改名字为authorized_keys。
这样就可以用ssh 192.168.137.12 登录到h2电脑里面 第一次会提示输入密码,之后就不会了。
如果想实现相互免密码登陆那就是在h2上面产生公钥私钥 ,把公钥拷贝到h1上面
如果想实现h1到h1的免密码登陆就直接拷贝公钥在自己的~/.ssh/下并取名为authorized_keys。
那么我们怎么实现nfs共享目录的办法来实现ssh免密码登陆呢?
其实就是把各自的公钥放在共享目录里面,然后让不同的机器节点来共享目录
里面拿公钥到自己的~/.ssh/目录下面就可以做到了。这样可以省去一些重复的操作。
这里有一种方式叫做链接文件命令:ln 有软连接和硬链接之分
这里最方便的做法是在h1的共享目录里面建立authorized_keys文件把所有节点的公钥信息都放在这里,不断累加,只要有一台电脑连进来就增加这个公钥文件和新电脑的软连接设置,其他节点都不需要去配置为可以实现所有节点的ssh免密码登陆。
我想分析到这里大家已经可以自己完成了。
需要做的是:
1.软连接建立
2.把新加电脑产生的公钥追加给共享目录的authorized_keys文件中即可
目前问题点:
软连接ssh免密码登陆不成功,仍然要求输入密码,不知道是我配置问题,还是什么问题,我的做法是:
将h2,h3上面的公钥加到h1de的~/.ssh/authorized_keys上面
ssh h2.weir.com cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh h3.weir.com cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
内容为:
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAwkLRj4s+OXY7y8W9/3MOaMGMxE3M37/ySm28gwSpxs4AibAPjZY9rXvld5fJWl99iVeLMTRn39cryXknqf7gqy32EZ6kledh5Au7kv96XX3Cbwr5YIWoTggo9q9tG8E7J268QpV/2Zi1lOM6EEnLPUfpU6UWW2l8Ay4a2AyrWoIs2s6ffqPc/5xOnOnvAAmc285P75UmG0Cr/BVapdMi7z5WUUioPb3qGdXmirNy4EFUPtFMyXO3SwZIea61UpPLN6hcPDliluU+SwyVjkpicPUZcN/wweXkhQN/rexsbvNJ1qlD1DC1qT9eryj5b/i8RCWHGhxhlxvqlTxxmUpGMQ== root@h1
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAufPOnaaBhOgLepshNFTsUROGv0BZFCyqOK3rl+nr02YC5bk/I0K4kfnrJcTMgtE7CPYnjzPzpQLTKDYpu9Qv2XQkxadKe3FsWoihnRz4+ZLaL5QdlKwM8CNNDvYXnULwUh7ZyyEAxT+50WkIzVL+aVz4nbynOw6oJHyg492tU/lkytRPSTn0ogAH10QGqOGzKMLoFSiE5ce6acNrck79ya4R13k6y6XiJYjlfkfU+QbKw9vtZcVWN9LpygfYeQWZOv6vYA/XRk2ZZspwYs+lGQq7vdJTIxLW/SbS9qV5nJUYzVMDeG34rYJpZaM6FQ7TPxrQt00oPXBOL45Lf5fadQ== root@h2
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAtND3Kbx2fVg3dZfwQFxBdC1xmVX+gv9mfbUW5C2g+NYwxYR+yGSQQo43AjWcCz+HR2IyP4zijPpuY6x/9EObi5GUjQ5GvZiO/dWMUajMv2TbV92Y0/utgEaT301hQY2/UjlY9pheATZSBDk3X66pXq/kf0aYu7Wf2JULpBdilq711KHHgCRuHwNfduCwxhmw0mqx8i2SbCvbgHaEEmD8liqOQB0VOD2RWvUCSqaT4pnBhH0XWULUkO+VepzL4bup0LlCl88T2LF3Rso+g7k6rRBwoVoHGG8KQtVXPy33pcM7BIXxqFsQVrn7QYe09uBZS/BZj0e7bzCos1nBAb0+Gw== root@weir
ssh-rsa AAAAB3NzaC1yc2EAAAABIwAAAQEAtZN3yCKaxw7ysWqU5KjgjVfn+YqA4rP80rWwc5d2GLPBA7Kj2JuxUIuRBVTEAO4sir2TU4tDNrX5EVu7WZPmv3Z5w2hj4nnJhusHZo477qAwufE9G9cqJkc2Wuci+tiMp7beal1fDvE8guqy8IJCJuLInGWbvSuVToDcZiCazYg4vlMaB5J8xuNhcNpt7w665+YA2f7Bms9qylbQJnsmU95CSqnRKZag9OioOWrgPn/WjS93n/qMBIz3jWJeOiCi9jeg5zsYTxljfMQF+05NTg8tNZGGxweuR5dVFm7yHNfp4Gosj4Jhz7ZlFASRQe/q4cGc5EEQUzire4Qy7XQoGQ== root@h3
同时将h2,h3上面的公钥加到h1de的共享目录/home/gx/.ssh/authorized_keys上面
ssh h2.weir.com cat ~/.ssh/id_rsa.pub >> /home/gx/.ssh/authorized_keys
ssh h3.weir.com cat ~/.ssh/id_rsa.pub >> /home/gx/.ssh/authorized_keys
内容当面是一样的。
接下来操作h2,h3
软连接h2,h3(首先先删除~/.ssh/authorized_keys)
ln -s /nfs_share/.ssh/authorized_keys ~/.ssh/authorized_keys
到此就完成了。
测试结果是 可以免密码从h2,h3登录到h1
而不能 从h1免密码登录到h2,h3
这让人不解
相关推荐
非常详细的hadoop集群搭建教程,包含SSH免密码登录,基本上按照教程上一步一步操作就能搭建成功,非常适合大数据初学者使用
在Hadoop这样的分布式计算环境中,SSH无密码登录配置至关重要,因为它简化了节点间的通信,提高了运维效率。以下是关于SSH无密码登录配置的详细解释。 **一、SSH原理** SSH通过加密网络数据流,确保在非安全网络上...
提供的文档`hadoop_zookeeper_hbase集群配置.docx`应包含详细的步骤和配置示例,而`配置文件.rar`则可能包含了预设的配置模板,可以作为配置参考。在实际操作时,务必根据具体环境调整配置,确保所有节点之间的网络...
通过以上步骤,通常可以解决Hadoop环境中SSH免密码登录的问题。如果问题依然存在,可能需要进一步检查系统配置或网络状况。在Hadoop集群管理中,SSH免密码登录是提高效率、简化运维的关键步骤,因此理解和掌握这个...
在安装Hadoop时,通常需要配置集群环境,包括主节点和从节点,并确保所有节点之间的网络通信畅通。 Spark是大数据处理的另一个关键组件,它支持批处理、交互式查询(通过Spark SQL)、实时流处理(通过Spark ...
- 接着,配置SSH无密码登录,这样可以在节点间进行自动化操作。 - 安装Hadoop,并配置环境变量,包括设置`HADOOP_HOME`和`PATH`。 2. **HBase**:HBase是一个基于Hadoop的分布式数据库,适合实时读写操作,尤其...
本文件包含hadoop集群搭建的详细步骤,包含基础环境搭建,Hadoop集群搭建,Hive搭建。小白放心食用,无坑。 其中基础环境搭建包括虚拟机安装、centos7、网络配置、xshell、notepad等环境的安装。注:本文里安装的...
在安装Hadoop集群时,需要配置ssh无密码登录,以便Hadoop节点之间可以通信。ssh无密码登录可以方便地登录到不同的机器。 使普通用户也可ssh 在配置ssh无密码登录时,需要使普通用户也可以ssh,以便普通用户可以...
Hadoop_Hadoop集群(第5期副刊)_JDK和SSH无密码配置 Hadoop_Hadoop集群(第6期)_WordCount运行详解 Hadoop_Hadoop集群(第7期)_Eclipse开发环境设置 Hadoop_Hadoop集群(第8期)_HDFS初探之旅 Hadoop_Hadoop集群...
本篇将详细讲解如何配置Hadoop集群的SSH免登录,并介绍提供的shell脚本`hadoop_ssh_auto_login.sh`以及辅助文件`ip_hosts.txt`的用途。 首先,理解SSH免登录的基本原理。SSH免登录依赖于公钥认证机制,即在每台主机...
### 生产环境下Hadoop大集群安装之DNS服务器配置 在生产环境中部署Hadoop集群时,为了提高系统的可扩展性、可靠性和易管理性,通常会采用DNS服务来替代传统的/etc/hosts文件进行主机名与IP地址之间的解析。这种方式...
【大数据技术基础实验报告-Linux环境下hadoop集群的搭建与基本配置】 实验主要涉及了大数据技术中的基础概念,包括Linux操作系统、Java环境、SSH服务、Hadoop集群的搭建与配置。以下是具体步骤和知识点的详细解释:...
Hadoop 集群部署操作是指规划、安装和配置 Hadoop 集群的整个过程,以便在生产环境中运行 Hadoop 应用程序。下面是 Hadoop 集群部署操作的详细知识点: 规划 Hadoop 集群 * 规划主机名:bdlinux01、bdlinux02、...
从零开始hadoop+zookeeper+hbase+hive集群安装搭建,内附详细配置、测试、常见error等图文,按照文档一步一步搭建肯定能成功。(最好用有道云打开笔记)
我们将在/home/hadoop/cloud/softwares目录下存放软件安装包,/home/hadoop/cloud/program目录下存放程序文件,/home/hadoop/cloud/data目录下存放数据文件。 二、主机设置 2.1 设置IP地址 我们将使用静态IP地址...
适合新手,详细 01-Java环境安装 02- Eclipse下载与安装 03-VMware虚拟机的安装 04-在VMware中安装CentOS 05- Hadoop集群+ Hive+ MySQL搭建
hadoop+spark+hive Linux centos大数据集群搭建,简单易懂,从0到1搭建大数据集群
4. 理解为何需要配置 SSH 免密登录,掌握 Linux 环境下 SSH 的安装、免密登录的配置。 5. 熟练掌握在 Linux 环境下如何部署全分布模式 Hadoop 集群。 二、实验环境 本实验所需的软硬件环境包括 PC、VMware ...
该资源主要讲述了Hadoop集群的配置和使用,特别是JDK和SSH无密码配置。以下是相关知识点的总结: 一、Hadoop集群概述 * Hadoop是Apache基金会下的一个开源项目,主要用于大数据处理和存储 * Hadoop集群是指由多个...
Hadoop HA高可用集群搭建(Hadoop+Zookeeper+HBase) 一、Hadoop HA高可用集群...通过规划服务器环境、选择合适的版本组合、安装和配置Zookeeper、Hadoop和HBase三个组件,可以搭建一个高效的Hadoop HA高可用集群。