`

spark ssh配置

阅读更多

配置机器 hostname

vi /etc/hostname 增加S1PA11

再执行# hostname
S1PA11 ---修改成功

打开hosts文件 并修改关联关系:

127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6

增加下面两行 (本地和另一台机器IP和hostname
10.58.44.47 S1PA11
10.126.45.56 S1PA222

ping S1PA222
PING S1PA222 (10.126.45.56) 56(84) bytes of data.
64 bytes from S1PA222 (10.126.45.56): icmp_seq=1 ttl=62 time=0.235 ms
64 bytes from S1PA222 (10.126.45.56): icmp_seq=2 ttl=62 time=0.216 ms
64 bytes from S1PA222 (10.126.45.56): icmp_seq=3 ttl=62 time=0.276 ms

ping S1PA11
PING S1PA11 (10.58.44.47) 56(84) bytes of data.
64 bytes from S1PA11 (10.58.44.47): icmp_seq=1 ttl=62 time=0.268 ms
64 bytes from S1PA11 (10.58.44.47): icmp_seq=2 ttl=62 time=0.273 ms

目前 两台机器是可以通信的

ssh免密码验证配置

首先在S1PA11机器配置(该机器是master)

进去.ssh文件: [spark@S1PA11 sbin]$ cd ~/.ssh/

生成秘钥 ssh-keygen :ssh-keygen -t rsa ,一路狂按回车键就可以了

最终生成(id_rsa,id_rsa.pub两个文件)

生成authorized_keys文件:[spark@S1PA11 .ssh]$ cat id_rsa.pub >> authorized_keys

在另一台机器S1PA222(slave机器)也生成公钥和秘钥

步骤跟S1PA11是类似的

进去.ssh文件: [spark@S1PA11 sbin]$cd ~/.ssh/

生成秘钥 ssh-keygen :ssh-keygen -t rsa,一路狂按回车键就可以了

最终生成(id_rsa,id_rsa.pub两个文件)

将S1PA222机器的id_rsa.pub文件copy到S1PA11机器:[spark@S1PA222 .ssh]$ scp id_rsa.pub spark@10.58.44.47:~/.ssh/id_rsa.pub_sl

此切换到机器S1PA11 合并authorized_keys;[spark@S1PA11 .ssh]$ cat id_rsa.pub_sl >> authorized_keys

将authorized_keyscopy到S1PA222机器(/home/spark/.ssh):[spark@S1PA11 .ssh]$ scp authorized_keys spark@10.126.45.56:~/.ssh/

现在讲两台机器 .ssh/ 文件夹权限改为700,authorized_keys文件权限改为600(or 644)

chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

OK 完成以上操作后 可以开始ssh验证了

S1PA11j机器sshS1PA222

[spark@S1PA11 .ssh]$ ssh S1PA222
Last login: Mon Jan 5 15:18:58 2015 from s1pa11
[spark@S1PA222 ~]$ exit
logout
Connection to S1PA222 closed.
[spark@S1PA11 .ssh]$ ssh S1PA222
Last login: Mon Jan 5 15:46:00 2015 from s1pa11

S1PA222机器sshS1PA11

Connection to S1PA11 closed.
[spark@S1PA222 .ssh]$ ssh S1PA11
Last login: Mon Jan 5 15:46:43 2015 from s1pa222
[spark@S1PA11 ~]$ exit

顺利完成ssh免密码验证

PS:异常问题处理

1、ssh localhost:publickey 授权失败

sudo vi /etc/ssh/sshd_config

RSAAuthentication yes
PubkeyAuthentication yes
AuthorizedKeysFile .ssh/authorized_keys

service sshd restart

注:ssh可同时支持publickey和password两种授权方式,publickey默认不开启,需要配置为yes。
如果客户端不存在.ssh/id_rsa,则使用password授权;存在则使用publickey授权;
如果publickey授权失败,依然会继续使用password授权。
不要设置 PasswordAuthentication no ,它的意思是禁止密码登录,这样就只能本机登录了!

2、vi /etc/selinux/config
SELINUX=disabled

chmod 700 ~/.ssh
chmod 600 ~/.ssh/authorized_keys

最后重启你的 linux 执行 ssh localhost

3、ssh ip 或 hostname 均提示:connection refused
目标主机的ssh server端程序是否安装、服务是否启动,是否在侦听22端口;
是否允许该用户登录;
本机是否设置了iptables规则,禁止了ssh的连入/连出;

 

分享到:
评论

相关推荐

    hadoop-spark配置文档1

    4. 使用 `ssh localhost` 和 `ssh hadoop-spark` 登录验证 SSH 配置是否成功。 二、Hadoop 配置 Hadoop 的配置主要涉及几个核心的 XML 文件,包括 `core-site.xml`, `hdfs-site.xml`, 和 `mapred-site.xml`。 1. `...

    Hadoop与Spark安装配置手册

    以上内容详细介绍了在Linux环境下Hadoop和Spark的安装与配置方法,涉及了JDK、用户权限、SSH无密码登录以及Hadoop和Spark自身的安装配置等重要知识点。这些步骤为在Linux环境中搭建和配置大数据处理环境提供了清晰的...

    docker 部署spark集群配置文件

    资源名称: Spark 集群配置文件 资源类型: 配置文件 描述: 这个资源包含了一个基本的Spark集群配置,包括Hadoop、Hive、MySQL和Spark的配置文件。 文件清单: Dockerfile build.sh build_network.sh -yarn-site.xml -...

    Vmware的Centos7中的Spark虚拟机配置

    在Vmware的Centos7环境中配置Spark虚拟机涉及到多个步骤,包括系统设置、免密登录、Java环境配置、Hadoop的安装与配置以及Yarn的设置。以下是详细的知识点说明: 1. **系统设置**: - 修改主机名:使用`...

    hadoop&spark环境配置.pdf

    ### Hadoop & Spark 环境配置知识点 #### 一、Hadoop 集群部署的要点 **1.1 Java版本与Hadoop版本兼容性** - **HBase 1.4+**: JDK7 支持,JDK8 不支持。 - **HBase 2.3+**: JDK8 支持,JDK11 初步支持。 - **...

    集群机器之间ssh免密登录

    集群机器之间ssh免密登录 在分布式集群环境中,机器之间的免密登录是非常重要的,能够提高工作效率和便捷性。今天,我们将讨论如何在集群机器之间实现ssh免密登录。 首先,让我们了解什么是ssh免密登录。SSH...

    Spark-1.0.2安装配置

    Spark-1.0.2安装配置,简单的demo运行,包含vbox、jdk、Scala、SSH的安装配置

    spark1.3与hadoop2.6环境配置

    Spark 1.3 和 Hadoop 2.6 环境配置是大数据处理领域中的重要环节,它们共同构建了一个高效、可扩展的数据处理框架。Spark 是一个快速、通用且可扩展的大数据处理引擎,而 Hadoop 则是分布式存储和计算的基础平台。在...

    Spark环境搭建-Linux.pptx

    Spark 环境搭建 - Linux ...本资源summary为用户提供了详细的 Spark 环境搭建教程,涵盖了环境准备、SSH 免密码登录设置、JDK 安装与配置、Scala 安装与配置等内容,旨在帮助用户快速搭建 Spark 环境。

    Spark平台搭建最详细最完美详解

    - 配置Spark的核心配置文件`spark-env.sh`、`spark-defaults.conf`等,以适应集群环境。 - 设置`SPARK_HOME`环境变量,并确保所有节点都已安装好所需的依赖库(如Hadoop等)。 3. **启动Spark集群** - 在`master...

    实验三:Spark单词计数1

    实验涉及的关键知识点包括服务器配置、Scala编程、Spark RDD的工作原理以及在Spark集群上运行程序的流程。 首先,了解服务器配置是实验的基础。在这个过程中,你需要在华为云购买3台服务器,其中一台作为主节点,...

    scala和spark的安装

    1. **发送配置文件与安装文件给子节点**:通过SSH或其他工具将配置文件和安装文件发送给子节点。 2. **启动Spark集群**:回到主节点,在Spark的根目录下执行以下命令启动Spark集群。 ```bash ./start-all.sh ``` ...

    Spark集群及相关生态链部署文档

    - 需要在 `spark-defaults.conf` 文件中配置相关的参数,如 `spark.master` 和 `spark.submit.deployMode` 等。 #### 四、HBase 配置 1. **环境变量配置** - 同样地,配置 HBase 的环境变量,如 `HBASE_HOME`。 ...

    Hadoop 和 Spark 安装、环境配置与使用教程.pdf

    ### Hadoop 和 Spark 的安装、环境配置与使用教程 #### 一、系统和软件要求 在开始安装Hadoop和Apache Spark之前,确保你的系统满足以下要求: - **操作系统**: Ubuntu 18.04 或其他支持的 Linux 发行版。 - **...

    hadoop 2.6.0 及Spark1.3.1平台搭建20150505-优化版

    总的来说,搭建基于 Hadoop 2.6.0 的 Spark 1.3.1 平台涉及多个步骤,包括虚拟化环境的准备、Hadoop 的安装配置以及 Spark 的集成。这个过程不仅要求对 Hadoop 和 Spark 的基础知识有深入理解,还需要熟悉 Linux ...

    Spark集群及开发环境搭建(完整版)

    - 配置SSH免密登录以方便远程操作。 - 进行Hadoop集群测试以验证集群配置的正确性。 #### 七、Spark & Scala 集群安装 - 安装Scala环境。 - 安装Spark并配置环境变量。 - 进行Spark集群测试以确保集群可以正常工作...

    大数据与云计算培训学习资料 Hadoop集群 细细品味Hadoop_第5期副刊_JDK和SSH无密码配置 共9页.pdf

    * Hadoop集群可以与其他大数据工具集成,例如Spark、Hive、Pig等 六、结论 * Hadoop集群是大数据处理的重要工具 * JDK和SSH无密码配置是Hadoop集群的基础配置 * 了解环境变量的配置和Hadoop集群的应用场景,可以更...

Global site tag (gtag.js) - Google Analytics