接 http://freewxy.iteye.com/admin/blogs/1102759 ,检查hdfs上是否有/user/hadoop/input文件
执行完毕后检查/home/hadoop/tmp/program_getFromHdfs_input文件是否生成
package GetFromHdfs;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class GetFromHdfs {
/**
* 将文件从hdfs上下载回local
* src为hdfs的来源
* dst为local的目的端
*/
static boolean getFromHdfs(String src,String dst, Configuration conf) {
Path dstPath = new Path(src);
try {
// 获取操作hdfs的对象
FileSystem hdfs = dstPath.getFileSystem(conf);
// 下載
hdfs.copyToLocalFile(false, new Path(src),new Path(dst));
} catch (IOException e) {
e.printStackTrace();
return false;
}
return true;
}
static public void main(String args[]){
Configuration conf = new Configuration();
String src = "/user/hadoop/input";
String dst = "/home/hadoop/tmp/program_getFromHdfs_input";
boolean status = getFromHdfs(src, dst, conf);
System.err.println("download? :" + status);
}
}
1、将该java代码打包为HelloHadoop.jar
选择程序入口时注意如图选择:
--------------------------------------------------------------------------------------------------------------------------------------

-----------------------------------------------------------------------------------------------------------------------------------
2、将HelloHadoop.jar从workspace复制到/usr/local/hadoop目录下(你自己的hadoop目录下)
3、运行hadoop框架(伪分布式): $ bin/start-all.sh
4、运行HelloHadoop.jar : $bin/hadoop jar HelloHadoop.jar


- 大小: 57.9 KB

- 大小: 36.3 KB
分享到:
相关推荐
Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】--...
"厦门大学-林子雨-大数据技术基础-第3章 分布式文件系统HDFS-上机练习-熟悉常用的HDFS操作" HDFS(Hadoop Distributed File System)是Hadoop生态系统中的核心组件之一,它是基于分布式存储技术的文件系统,旨在...
【标题】"hdfs-over-ftp安装包及说明"涉及的核心技术是将FTP(File Transfer Protocol)服务与HDFS(Hadoop Distributed File System)相结合,允许用户通过FTP协议访问和操作HDFS上的数据。这个标题暗示了我们将在...
赠送jar包:hadoop-hdfs-client-2.9.1.jar 赠送原API文档:hadoop-hdfs-client-2.9.1-javadoc.jar 赠送源代码:hadoop-hdfs-client-2.9.1-sources.jar 包含翻译后的API文档:hadoop-hdfs-client-2.9.1-javadoc-...
赠送jar包:hadoop-hdfs-client-2.9.1.jar; 赠送原API文档:hadoop-hdfs-client-2.9.1-javadoc.jar; 赠送源代码:hadoop-hdfs-client-2.9.1-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-client-2.9.1.pom;...
标题 "hdfs-over-ftp-hadoop-0.20.0.rar" 提示我们关注的是一个关于将HDFS(Hadoop Distributed File System)与FTP(File Transfer Protocol)整合的项目,特别适用于版本0.20.0的Hadoop。这个项目可能提供了在...
本文将详细讲解HDFS客户端进行IO流操作,包括文件上传、下载以及如何处理分块文件。 1. **HDFS文件上传** 在HDFS客户端上传文件时,我们首先需要创建一个`Configuration`对象来配置文件系统参数,然后通过`...
接着,描述中提到将`hdfs-site.xml`配置文件复制到`resources`目录下,并设定副本数为1。这表明我们可以自定义配置文件来覆盖默认设置。配置文件中的相关设置如下: ```xml <name>dfs.replication <value>1 ...
在本文中,我们将深入探讨如何在开发环境中设置HDFS客户端,以便进行Hadoop分布式文件系统的操作。我们将遵循四个主要步骤,这些步骤对于任何希望使用Java API与HDFS交互的开发者来说都是至关重要的。 **步骤一:...
python 零基础学习篇-04.HDFS集群搭建--服务器-网络配置准备.mp4
大数据 hdfs-over-ftp jar包。 基于maven工程打包的可执行jar包,支持hadoop版本cdh5.12.1,以及kerberos认证,配置kerberos信息的核心配置文件core.properties,下载集群相关认证信息配置即可,其他配置文件信息是...
HDFS是Hadoop生态系统的核心组件之一,它是一个分布式文件系统,设计目标是为了处理和存储大量数据。HDFS遵循主从结构,由NameNode(主节点)负责元数据管理,DataNode(从节点)负责实际的数据存储。HDFS的主要特性...
基于Python+Flask+HDFS的云盘系统-毕业设计源码+使用文档(高分优秀项目) 该项目是个人高分毕业设计项目源码,已获导师指导认可通过,答辩评审分达到97分,在window10/11测试环境严格调试,下载即用,确保可以运行...
在Java编程环境中,Hadoop分布式文件系统(HDFS)提供了丰富的Java API,使得开发者能够方便地与HDFS进行交互,包括文件的上传、下载、读写等操作。本篇文章将详细探讨如何使用HDFS Java API来实现文件上传的功能。 ...
07.HDFS工作机制--namenode元数据管理--checkpoint.mp4
09.HDFS工作机制--户端从HDFS读数据的流程.mp4
在本文档中,我们首先了解了如何通过Hadoop 2.7.1实现HDFS与FTP的结合使用,称为hdfs-over-ftp。为了实现这一功能,我们需要经过几个步骤来配置和启动一个支持Hadoop文件系统的FTP服务器。 首先,文档提到了安装和...
赠送jar包:hadoop-hdfs-2.7.3.jar; 赠送原API文档:hadoop-hdfs-2.7.3-javadoc.jar; 赠送源代码:hadoop-hdfs-2.7.3-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-2.7.3.pom; 包含翻译后的API文档:hadoop...
HDFS Java API 是一组 Java 类库,提供了一组接口来操作 HDFS。下面我们将对 HDFS Java API 进行详细的介绍。 HDFS Java API 概述 HDFS Java API 是一个 Java 库,提供了一个接口来访问 HDFS。该 API 提供了多种...