hdfs-over-ftp是一个开源,简单易用的实现了对HDFS系统的下载和上传功能的小工具。可以作为管理工具来使用,快捷方便。
1.安装jdk(1.6以上版本)并配置环境变量
分别执行java –version和javac –version,若显示版本真确,则说明安装和配置成功。
2.安装hadoop,并将服务启动并配置环境变量。
执行hadoop version,若显正确版本号,说明安装和配置成功。
3.安装maven(3.0.4)并配置环境变量(下载地址 http://maven.apache.org/download.cgi)
下载:
安装:
tar –zxvf apache-maven-3.0.5-bin.tar.gz
配置环境变量:
# vi /etc/profile
export MAVEN_HOME=/usr/local/apache-maven-3.0.5/
export PATH=$PATH:$MAVEN_HOME/bin
4.下载安装hdfs-over-ftp(下载地址:https://github.com/iponweb/hdfs-over-ftp)
说明:因为没有tar.gz 文件 下载下来是zip的。
安装hdfs-over-ftp:
解压:vsftp hdfs-over-ftp-master.zip
配置:vi hdfs-over-ftp-master/src/main/resources/users.properties
将红色字体的值设置成你想要设置的密码的MD5加密值,下面的密码为123123的MD5加密值。
ftpserver.user.firstuser.userpassword=4297f44b13955235245b2497399d7a93
ftpserver.user.firstuser.homedirectory=/
ftpserver.user.firstuser.enableflag=true
ftpserver.user.firstuser.writepermission=true
ftpserver.user.firstuser.maxloginnumber=0
ftpserver.user.firstuser.maxloginperip=0
ftpserver.user.firstuser.idletime=0
ftpserver.user.firstuser.uploadrate=0
ftpserver.user.firstuser.downloadrate=0
ftpserver.user.firstuser.groups=firstuser,users
#md5\u503C\u4E3A333
ftpserver.user.agladyshev.userpassword=4297f44b13955235245b2497399d7a93
ftpserver.user.agladyshev.homedirectory=/
ftpserver.user.agladyshev.enableflag=true
ftpserver.user.agladyshev.writepermission=true
ftpserver.user.agladyshev.maxloginnumber=0
ftpserver.user.agladyshev.maxloginperip=0
ftpserver.user.agladyshev.idletime=0
ftpserver.user.agladyshev.uploadrate=0
ftpserver.user.agladyshev.downloadrate=0
ftpserver.user.agladyshev.groups=agladyshev,users
ftpserver.user.root.userpassword=4297f44b13955235245b2497399d7a93
ftpserver.user.root.homedirectory=/
ftpserver.user.root.enableflag=true
ftpserver.user.root.writepermission=true
ftpserver.user.root.maxloginnumber=0
ftpserver.user.root.maxloginperip=0
ftpserver.user.root.idletime=0
ftpserver.user.root.uploadrate=0
ftpserver.user.root.downloadrate=0
ftpserver.user.root.groups=root,users
5.修改文件hdfs-over-ftp-master/src/main/resources/hdfs-over-ftp.properties的配置,
红色为修改后的。
#uncomment this to run ftp server
port = 2222
data-ports = 2223
#uncomment this to run ssl ftp server
#ssl-port = 2226
#ssl-data-ports = 2227
# hdfs uri
hdfs-uri = hdfs://Host1:9000/
# max number of login
max-logins = 1000
# max number of anonymous login
max-anon-logins = 1000
# have to be a user which runs HDFS
# this allows you to start ftp server as a root to use 21 port
# and use hdfs as a superuser
superuser = agladyshev
6.修文件hdfs-over-master/pom.xml的配置,红色字体为修改部分,如果不修改的话可能在服务器运行时无法找到不分包
<dependency>
<groupId>org.apache.mina</groupId>
<artifactId>mina-core</artifactId>
<verion>2.0.0-M2</>
</dependency>
7.执行sh hdfs-over-ftp-master/hdfs-over-ftp.sh,下载所有的包后服务器将启动(注意:安装ftp服务的汲取必须能链接外网)
8.如果显示服务器已启动,就可以任何ftp客户端或命令登陆
window:ftp://Host1:2222
liunx:ftp Host1 2222
相关推荐
2. "hdfs-over-ftp-hadoop2.tar.gz":这可能是一个针对Hadoop 2.x版本的压缩包,包含了所有必要的二进制文件、配置示例、脚本等,用于在运行Hadoop 2.x集群的环境中部署hdfs-over-ftp服务。 3. "hdfs-over-ftp-...
3. **文档**:包括用户指南、开发者手册,可能详细解释了如何安装、配置和使用这个FTP-over-HDFS服务。 4. **示例**:可能包含一些演示如何通过FTP访问HDFS的脚本或教程,帮助用户快速上手。 5. **测试**:可能有一...
官网是hadoop的0.20版本的,改写为hadoop的2.4.1版本的hdfs-over-ftp,改动详情如我的博客地址http://blog.csdn.net/zhulin40/article/details/38444875
首先,文档提到了安装和配置Java环境和Maven,这两个工具对于构建和运行hdfs-over-ftp是必须的。Java环境是运行任何Hadoop应用的前提条件,因为Hadoop是用Java编写的。Maven则是一个项目管理工具,用于处理项目构建...
大数据 hdfs-over-ftp jar包。 基于maven工程打包的可执行jar包,支持hadoop版本cdh5.12.1,以及kerberos认证,配置kerberos信息的核心配置文件core.properties,下载集群相关认证信息配置即可,其他配置文件信息是...
在本实验中,我们将探讨如何利用Hadoop的分布式文件系统(HDFS)和FTP协议进行文件的存储与迁移。这个"基于HDFS+FTP的文件存储与迁移实验代码.zip"包含了一个名为"HDFS_FTP_ForMyProject-master"的项目源码,这为...
基于原生组件二次开发,maven工程,pom.xml文件中可引入对应集群的版本的jar,即可支持多种,本工程是基于hadoop cdh5.12.1版本。配置文件只增加了core.properties,关于kerberos信息配置,以及集群核心的配置文件...
ftp源码hdfs-over-ftp 工作在 HDFS 之上的 FTP 服务器源代码是在 MIT 许可下提供的 FTP 服务器可通过 hdfs-over-ftp.properties 和 users.properties 进行配置。 它允许通过 SSL 使用安全连接并支持所有 HDFS 权限。...
基于HDFS的FTP项目,可上传下载文件,开源
标题中的“hadoop hdfs ftp”表明我们正在讨论Hadoop分布式文件系统(HDFS)与FTP(文件传输协议)的结合使用。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大量数据,而FTP则是一种标准网络...
### HDFS 2.0 基本概念 Hadoop 2.0 是Hadoop生态系统的一个重要里程碑,相比Hadoop 1.0,它引入了两大核心改进:High ...通过以上步骤,可以有效地部署和管理HDFS HA和Federation,从而提高HDFS集群的可用性和扩展性。
hdfs-over-ftp 的重构。 hdfs-over-ftp 的重构 支持hadoop2.0.0。 官网的hdfs-over-ftp已经好久没有更新,还只是停留在hadoop 0.20.x,下载之后不兼容无法使用,所以对hdfs-over-ftp进行了重构,此软件支持hadoop...
官网的hdfs-over-ftp已经好久没有更新,还只是停留在hadoop 0.20.x,下载之后不兼容无法使用,所以对hdfs-over-ftp进行了重构,此软件支持hadoop2.0.0,其他版本还需要重新编译打jar包,zip包中附带了一个使用说明
在本主题中,我们将深入探讨如何在Linux环境中配置和使用Hadoop 2.7.2集群,特别是关于HDFS-over-FTP的重构。Hadoop Distributed File System (HDFS)是Hadoop生态系统的核心部分,它提供了分布式存储解决方案,而...
HDFS的安装部署可以分为以下几个步骤: 4.1 安装准备 * 机器准备:确保安装HDFS的机器满足最低配置要求,包括CPU、内存、磁盘空间等。 * Disable IPV6:为了避免IPV6的干扰,需要禁用IPV6协议。 * Jdk 安装:HDFS...
### HDFS + Spark 安装部署知识点 #### HDFS安装部署 ##### 目的 本文档旨在指导读者完成Hadoop伪分布式环境下HDFS的安装与部署。通过本指南的学习,您将能够掌握如何搭建一个基本的HDFS集群,并了解相关的配置步骤...
HDFS 安装及维护 本文档主要介绍了 HDFS 的安装和维护过程,涵盖了基础环境设置、主机hosts 设置、ssh 免密登录、防火墙和 selinux 配置、Hadoop 软件包安装、Java 环境配置、Hadoop 的 Java 环境配置、core-site....
7. 部署和运维:包括如何安装配置FTP服务器,如何连接到HDFS集群,以及如何进行故障排查和维护。 通过这个项目,开发者可以学习到如何将传统的文件传输协议与现代的大数据存储系统结合,以适应不断增长的数据处理...