开始操作前,检查是否存在要删除的文件(/user/hadoop/program_put_input):

package CheckAndDelete ;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class CheckAndDelete {
/**
* 检查是否存在文件,存在则删除
*/
static boolean checkAndDelete(final String path, Configuration conf) {
Path dst_path = new Path(path);
try {
FileSystem hdfs = dst_path.getFileSystem(conf);
//检查是否存在文件
if (hdfs.exists(dst_path)) {
// 有则删除
hdfs.delete(dst_path, true);
return true;
}else{
return false;
}
} catch (IOException e) {
e.printStackTrace();
return false;
}
}
static public void main(String args[]){
Configuration conf = new Configuration();
String path = "/user/hadoop/program_put_input";
boolean status = checkAndDelete( path, conf);
System.err.println("delete? :" + status);
}
}
1、将该java代码打包为HelloHadoop.jar(程序入口选择CheckAndDelete.java)
2、将HelloHadoop.jar从workspace复制到/usr/local/hadoop目录下(你自己的hadoop目录下)
3、运行hadoop框架(伪分布式): $ bin/start-all.sh
4、运行HelloHadoop.jar : $bin/hadoop jar HelloHadoop.jar

5、执行完毕,检查是否存在要删除的文件(/user/hadoop/program_put_input)


- 大小: 69.8 KB

- 大小: 35.3 KB

- 大小: 68 KB
分享到:
相关推荐
Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】---- 代码 Hadoop 3.x(HDFS)----【HDFS 的 API 操作】--...
了解HDFS的基础知识是掌握大数据技术的基础,本次上机练习旨在帮助学生熟悉HDFS的基本操作,包括上传、下载、复制、删除文件等操作。通过本次上机练习,学生可以更好地理解HDFS在Hadoop体系结构中的角色,并掌握HDFS...
【标题】"hdfs-over-ftp安装包及说明"涉及的核心技术是将FTP(File Transfer Protocol)服务与HDFS(Hadoop Distributed File System)相结合,允许用户通过FTP协议访问和操作HDFS上的数据。这个标题暗示了我们将在...
赠送jar包:hadoop-hdfs-client-2.9.1.jar 赠送原API文档:hadoop-hdfs-client-2.9.1-javadoc.jar 赠送源代码:hadoop-hdfs-client-2.9.1-sources.jar 包含翻译后的API文档:hadoop-hdfs-client-2.9.1-javadoc-...
赠送jar包:hadoop-hdfs-client-2.9.1.jar; 赠送原API文档:hadoop-hdfs-client-2.9.1-javadoc.jar; 赠送源代码:hadoop-hdfs-client-2.9.1-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-client-2.9.1.pom;...
本篇文章主要探讨了HDFS客户端进行文件操作的相关知识点,包括文件上传、下载、删除以及重命名,同时也涉及到了配置参数的优先级规则。 首先,我们要了解的是如何通过客户端设置文件副本数量。在HDFS中,文件的副本...
本文将详细讲解HDFS客户端进行IO流操作,包括文件上传、下载以及如何处理分块文件。 1. **HDFS文件上传** 在HDFS客户端上传文件时,我们首先需要创建一个`Configuration`对象来配置文件系统参数,然后通过`...
python 零基础学习篇-04.HDFS集群搭建--服务器-网络配置准备.mp4
"ftpoverhdfs"可能是指一个特定的模块或工具,它允许FTP通信“覆盖”HDFS,即通过FTP接口操作HDFS。"java_hadoop"和"java_hdfs-over-ftp"表明这个实现是用Java编写的,并且是针对Hadoop平台的,这符合Hadoop通常的...
在本文中,我们将深入探讨如何在开发环境中设置HDFS客户端,以便进行Hadoop分布式文件系统的操作。我们将遵循四个主要步骤,这些步骤对于任何希望使用Java API与HDFS交互的开发者来说都是至关重要的。 **步骤一:...
HDFS是Hadoop生态系统的核心组件之一,它是一个分布式文件系统,设计目标是为了处理和存储大量数据。HDFS遵循主从结构,由NameNode(主节点)负责元数据管理,DataNode(从节点)负责实际的数据存储。HDFS的主要特性...
基于Python+Flask+HDFS的云盘系统-毕业设计源码+使用文档(高分优秀项目) 该项目是个人高分毕业设计项目源码,已获导师指导认可通过,答辩评审分达到97分,在window10/11测试环境严格调试,下载即用,确保可以运行...
在Java编程环境中,Hadoop分布式文件系统(HDFS)提供了丰富的Java API,使得开发者能够方便地与HDFS进行交互,包括文件的上传、下载、读写等操作。本篇文章将详细探讨如何使用HDFS Java API来实现文件上传的功能。 ...
07.HDFS工作机制--namenode元数据管理--checkpoint.mp4
09.HDFS工作机制--户端从HDFS读数据的流程.mp4
大数据 hdfs-over-ftp jar包。 基于maven工程打包的可执行jar包,支持hadoop版本cdh5.12.1,以及kerberos认证,配置kerberos信息的核心配置文件core.properties,下载集群相关认证信息配置即可,其他配置文件信息是...
赠送jar包:hadoop-hdfs-2.7.3.jar; 赠送原API文档:hadoop-hdfs-2.7.3-javadoc.jar; 赠送源代码:hadoop-hdfs-2.7.3-sources.jar; 赠送Maven依赖信息文件:hadoop-hdfs-2.7.3.pom; 包含翻译后的API文档:hadoop...
本文将详细讲解如何使用Java API来操作HDFS,特别是创建目录的功能。我们将探讨Hadoop的环境配置、HDFS API的使用以及具体创建目录的步骤。 首先,理解Hadoop的环境配置至关重要。在进行Java编程之前,你需要确保...
11.hbase集群搭建--及其各种机制的观察--hdfs中的目录--zookeeper中的状态数据.mp4