`
nudtgk2000
  • 浏览: 73617 次
  • 性别: Icon_minigender_1
  • 来自: 大连
社区版块
存档分类
最新评论

对配hadoop时用到的一些命令,查到的详细解释做个笔记

阅读更多

$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

生成一个本主机的密钥对

-t dsa                      DSA型密钥

-P ''                         空密语

-f ~/.ssh/id_dsa      把生成的密钥输出到文件里,"~/"是代指用户主文件夹,.ssh是ssh在其下建立的隐藏文件夹,权限700其他用户不可访问必须的!生成的公钥则存在与这个文件对应的.pub文件中

 

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

将产生的主机公钥添加到认证列表里,服务器端保留密钥,将公钥分发给客户端,客户端保存在本地authorized_keys文件中,凭公钥向服务器发加密请求,服务器用密钥解密认证。这里因为是用ssh保密登陆访问本机,所以直接把公钥写进自己的authorized_keys

 

[1] 《SSH协议详解》@ http://sense5.blog.51cto.com

[2] 《ssh-keygen 中文手册》 by 金步国

[3] 《linux ssh 使用深度解析(key登录详解)》Jackie li's Blog

[4] 《linux cat 命令详解》 @ mecho的CSDN专栏

[5] 《linux cat 命令详解》darkmi'blog

 

0
2
分享到:
评论

相关推荐

    大数据复习、面试准备、新手提前预习

    本资料集合了关于大数据的学习笔记、面试准备和复习材料,非常适合对大数据感兴趣的初学者以及正在为面试做准备的专业人士。 一、大数据基础 大数据的核心特征包括大量性(Volume)、多样性(Variety)、高速性...

    Windows本地pyspark环境搭载_spark环境搭载.doc

    以下是一个详细的步骤指南,包括配置Java、Scala、Spark、Hadoop以及整合Anaconda和Jupyter Notebook。 1. **配置Java**: 首先,你需要安装Java Development Kit (JDK),因为Spark依赖于Java运行环境。确保下载并...

    小镜子之安装2.zep.7z

    在安装Zeppelin时,首先,我们需要确保系统满足基本的硬件和软件要求,例如操作系统(通常支持Linux、macOS或Windows)、Java开发工具包(JDK)以及对Apache Hadoop和Spark的兼容性。对于初学者,理解这些依赖关系至...

    ETL-Project

    ETL(Extract, Transform, Load)是数据处理领域的一个核心概念,主要负责将原始数据抽取出来,经过清洗、转换,最终加载到目标数据库或数据仓库的过程。在这个名为"ETL-Project"的项目中,我们可以预见到这将是一个...

    Full_Stack_Data_Science:将提供我所有与数据科学相关的工作

    在数据科学领域,"Full Stack Data Science" 是一个广受欢迎的概念,它涵盖了从数据获取、预处理、建模到可视化和部署的整个流程。在这个领域工作意味着你需要掌握一系列技术和工具,以便在数据生命周期的每个阶段都...

Global site tag (gtag.js) - Google Analytics