因为从总是要下载东西,虚拟机本身内存有限,所以考虑安装ftp服务,可以往虚拟机上上传文件。
#Ubuntu 安装 vsftpd 服务
sudo apt-get update
sudo apt-get install vsftpd
安装时老是提示没找到vsftp软件包,
改 gedit /etc/apt/sources.list 或vi /etc/apt/sources.list, 在最后加入
deb http://ftp.us.debian.org/debian stable main contrib non-free
deb http://ftp.us.debian.org/debian-non-US stable/non-US main contrib non-free
deb http://ftp.us.debian.org/debian testing main contrib non-free
deb http://ftp.us.debian.org/debian-non-US testing/non-US main contrib non-free
deb http://ftp.us.debian.org/debian unstable main contrib non-free
deb http://ftp.us.debian.org/debian-non-US unstable/non-US main contrib non-free
最后执行 apt-get update 更新软件库
安装vsftpd服务:sudo apt-get install vsftpd
安装时还是提示某些软件包没安装成功,然后就安装提示的补安装
更新软件库,重新安装vsftpd服务,终于成功
设置ftp用户的密码,输入sudo passwd ftp,然后输入密码,再确认密码。
创建ftp用户的家目录,使用sudo mkdir /home/ftp命令
设置ftp家目录的权限,我这里为方便直接使用sudo chmod 777 /home/ftp
设置vsftpd的文件,位置在/etc/vsftpd.conf,修改之前最好先备份下这个文件:
cp /etc/vsftpd.conf /etc/vsftpd.conf.old
因为我是虚拟机自己做实验,所以没有做过多的权限设置
#不让匿名用户使用
#anonymous_enable=YES
local_umask=022
#本地用户可用
local_enable=YES
#可用写操作
write_enable=YES
#不需要显示某目录下文件信息
#dirmessage_enable=YES
其他没做改动
测试一下:在其他主机上输入ftp://192.168.0.105
输入账号密码后登陆成功,可以上传和下载文件
启动服务:
sudo service vsftpd start
sudo service vsftpd restart
相关推荐
ambari-2.7.5 编译过程中四个大包下载很慢,所以需要提前下载,包含:hbase-2.0.2.3.1.4.0-315-bin.tar.gz ,hadoop-3.1.1.3.1.4.0-315.tar.gz , grafana-6.4.2.linux-amd64.tar.gz ,phoenix-5.0.0.3.1.4.0-315....
hadoop2 lzo 文件 ,编译好的64位 hadoop-lzo-0.4.20.jar 文件 ,在mac 系统下编译的,用法:解压后把hadoop-lzo-0.4.20.jar 放到你的hadoop 安装路径下的lib 下,把里面lib/Mac_OS_X-x86_64-64 下的所有文件 拷到 ...
hadoop-annotations-3.1.1.jar hadoop-common-3.1.1.jar hadoop-mapreduce-client-core-3.1.1.jar hadoop-yarn-api-3.1.1.jar hadoop-auth-3.1.1.jar hadoop-hdfs-3.1.1.jar hadoop-mapreduce-client-hs-3.1.1.jar ...
在Hadoop-2.7.3的版本中,HDFS已经经过了多次优化,增强了数据的可靠性和系统的整体性能。 MapReduce是Hadoop的另一个关键组件,它是一种编程模型,用于处理和生成大规模数据集。Map阶段将数据分解成较小的数据块,...
替换/path/to/hadoop-3.1.3为实际的Hadoop安装路径,然后执行`source ~/.bashrc`使改动生效。 四、配置Hadoop参数 在Hadoop的配置目录($HADOOP_HOME/etc/hadoop)下,有两个主要的配置文件:core-site.xml和hdfs-...
在这个特定的兼容包中,我们可以看到两个文件:flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(实际的兼容库)和._flink-shaded-hadoop-3-uber-3.1.1.7.1.1.0-565-9.0.jar(可能是Mac OS的元数据文件,通常...
这个名为“hadoop-2.7.1.tar.gz.zip”的文件包含了Hadoop的2.7.1版本,这是一个非常重要的里程碑,因为它包含了对Hadoop生态系统的许多改进和修复。 首先,我们要明白文件的结构。这是一个压缩文件,最外层是.zip...
这个压缩文件"hadoop-3.1.4.tar.zip"包含了Hadoop的源代码、文档、配置文件以及相关的依赖库,使得用户可以方便地在本地环境中安装和运行Hadoop。 在解压文件"hadoop-3.1.4.tar.gz"后,我们可以得到Hadoop的完整...
这个“hadoop-3.3.1.tar.gz”文件是一个压缩包,包含了所有必要的组件和配置文件,用于在各种操作系统上安装和运行Hadoop。 1. **Hadoop架构** Hadoop由两个主要组件构成:Hadoop Distributed File System (HDFS) ...
这个压缩包“hadoop-3.1.4.tar.gz”是Hadoop 3.1.4版本的Linux 64位编译安装包,适用于CentOS 6操作系统。在大数据领域,Hadoop扮演着至关重要的角色,它提供了高效、可扩展的数据处理能力,使得企业能够从庞杂的...
这个压缩包文件“hadoop-3.3.0.tar.gz”包含了Hadoop的3.3.0版本,这是一个重要的更新,提供了许多改进和新特性。在Linux环境中,我们可以使用tar命令来解压这个文件,以便在本地系统上安装和运行Hadoop。 Hadoop的...
这个“hadoop-2.7.4.tar.gz”文件是针对Windows平台编译好的Hadoop 2.7.4版本安装包,提供了在Windows系统上部署和运行Hadoop集群的可能性。 在Hadoop 2.7.4中,有以下几个关键知识点: 1. **HDFS(Hadoop ...
这个压缩包 "sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz" 包含了 Sqoop 的 1.4.6 版本,它已针对 Hadoop 2.0.4-alpha 版本进行了优化。让我们深入了解一下 Sqoop 的核心功能、工作原理以及如何在 Hadoop 环境中...
这个名为“hadoop-3.2.4.tar.gz”的压缩包文件包含了Hadoop 3.2.4版本的所有源代码、二进制文件、配置文件和其他相关资源。Hadoop在大数据领域扮演着至关重要的角色,因为它的主要组件——HDFS(Hadoop Distributed ...
在Linux环境下安装Hadoop 2.6.5,首先需要准备的是下载的压缩包“hadoop-2.6.5.tar.gz”。这个文件是一个归档文件,通过使用`tar`命令可以将其解压。例如,你可以使用以下命令来解压: ```bash tar -zxvf hadoop-...
标题 "hadoop-3.2.2.tar.gz" 指的是Hadoop的3.2.2版本的源代码压缩包,它以tar.gz格式打包,这是Linux系统中常见的归档和压缩方式。Hadoop是一个开源的分布式计算框架,由Apache软件基金会维护,主要用于处理和存储...
Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不...
hadoop-2.7.7.tar.gz+zookeeper-3.4.14.tar.gz.zip,配置hadoop+zookeeper必须,版本已适配。 hbase下载链接:https://download.csdn.net/download/tracelessle/11797862; sqoop + jdk + mysql-connector-java下载...
hadoop3.3.0源码 # 科学上网下载比较快,可以自己电脑下好了在上传到服务器 wget https://downloads.apache.org/hadoop/common/hadoop-3.3.0/hadoop-3.3.0-src.tar.gz...tar -zxvf hadoop-3.3.0-src.tar.gz # maven构建