`
lxm63972012
  • 浏览: 36799 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

hadoop 文件操作

阅读更多

存储文件:

 import java.io.BufferedInputStream;

import java.io.FileInputStream;

import java.io.InputStream;

import java.io.OutputStream;

import java.net.URI;

 

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

 

public class AddFile {

public static void main(String[] args) throws Exception {

String localSrc = "E:\\test\\spring3_MVC.docx";

String dst = "hdfs://localhost:9000/home/hdfs/s3.docx";

InputStream in = new BufferedInputStream(new FileInputStream(localSrc));

Configuration conf = new Configuration();

FileSystem fs = FileSystem.get(URI.create(dst), conf);

OutputStream out = fs.create(new Path(dst), true);

                long l1 = System.currentTimeMillis();

IOUtils.copyBytes(in, out, 4096, true);

System.out.println("ms = " + (System.currentTimeMillis() - l1));

}

}

 

 

 

下载文件:

import java.io.FileOutputStream;

import java.io.InputStream;

import java.io.OutputStream;

import java.net.URI;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.io.IOUtils;

 

public class readFile{

public static void main(String[] args) throws Exception {

        String uri = "hdfs://localhost:9000/home/hdfs/s3.docx";

        Configuration conf = new Configuration();

        FileSystem fs = FileSystem.get(URI.create(uri), conf);

        InputStream in = null;

        OutputStream out = null;

        try {

            in = fs.open(new Path(uri));

            out = new FileOutputStream("D:/s3.docx");

            IOUtils.copyBytes(in, out, 4096, false);

        } finally {

            IOUtils.closeStream(in);

            IOUtils.closeStream(out);

        }

 

    }

}

分享到:
评论

相关推荐

    Java API操作Hadoop文件

    接下来,了解`FileSystem`类是关键,它是Hadoop文件操作的核心。你可以通过以下方式获取一个`FileSystem`实例: ```java Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(conf); ``` ...

    实验4:hadoop文件上传.docx

    Hadoop 文件上传实验 本资源主要介绍了如何使用 HDFS 进行文件上传操作,同时了解如何使用 HDFS API 进行文件上传。实验内容包括使用命令行上传文件和使用 Java API 上传文件。 Hadoop 文件上传实验主要涉及到以下...

    BeeGFS作为Hadoop文件系统.pdf

    综上所述,BeeGFS作为Hadoop文件系统的主要优点在于它提供了一种性能更优的存储解决方案,可以解决HDFS在某些高要求环境下的局限性,例如在低延迟高吞吐量网络环境中,或者是在需要处理大规模并行IO操作的高性能计算...

    上传文件到Hadoop失败的原因分析及解决方法.pdf

    Hadoop 文件上传失败原因分析及解决方法 本文主要讨论了在 Java Web 程序中上传文件到 Hadoop HDFS 文件系统中失败的原因分析及解决方法。通过对问题的分析和解决,可以总结出以下知识点: 1. Hadoop 文件上传失败...

    操作系统课设——Hadoop文件系统

    5·访问Hadoop文件系统上的文件: 点击Hadoop按钮: 选择需要访问的文件, 在点击DownLoad按钮, 结果如下, 返回“DONE”说明下载成功, 这时Hadoop文件夹里将出现相应的文件。 四、 编程细节: 左边为OS-...

    hadoop的dll文件 hadoop.zip

    在提供的信息中,我们关注的是"Hadoop的dll文件",这是一个动态链接库(DLL)文件,通常在Windows操作系统中使用,用于存储可由多个程序共享的功能和资源。Hadoop本身是基于Java的,因此在Windows环境下运行Hadoop...

    hadoop文件

    【标题】:“Hadoop文件”通常指的是在Hadoop生态系统中处理和存储的大数据文件。Hadoop是Apache软件基金会开发的一个开源框架,专为分布式存储和处理大规模数据集而设计。它允许用户在廉价硬件上构建大规模可扩展的...

    hadoop Java接口 文件操作类

    本篇将深入探讨如何利用Hadoop的Java接口进行文件操作,实现对Hadoop服务的增、删、改、查等功能。 首先,我们要了解Hadoop的核心组件:HDFS(Hadoop Distributed File System)和MapReduce。HDFS是Hadoop的数据...

    基于django的hadoop文件管理系统-期末实训项目

    【基于Django的Hadoop文件管理系统】 在信息技术领域,Django和Hadoop是两个非常重要的技术组件,分别在Web开发和大数据处理方面发挥着关键作用。这个“基于Django的Hadoop文件管理系统”是一个结合了这两者优势的...

    hadoop文件上传下载

    在实际操作中,确保你的Hadoop环境已经正确配置,包括集群的NameNode和DataNode都在运行,且Struts2应用程序可以访问到Hadoop的配置文件(如hdfs-site.xml和core-site.xml),以便获取HDFS的地址和认证信息。...

    Hadoop豆瓣电影数据分析(Hadoop)操作源码

    Hadoop豆瓣电影数据分析(Hadoop)操作源码

    Hadoop分布式文件系统的文件读写

    在Hadoop的分布式文件系统(HDFS)...通过以上对Hadoop文件读写、文件属性和目录操作的解析,我们可以理解HDFS如何高效、安全地处理大规模数据。在实际应用中,理解并优化这些操作,对于提升Hadoop集群的性能至关重要。

    windows安装需要的Hadoop库文件

    然而,通过一些额外的配置和库文件,我们可以在Windows上运行Hadoop。以下是一些关于在Windows上安装Hadoop库文件的关键知识点: 1. **Java开发工具**:Hadoop依赖于Java环境,因此首先需要安装Java Development ...

    hadoop基本操作.docx

    在Hadoop环境中,熟练掌握HDFS的基本操作至关重要,这包括了通过不同方式访问HDFS、管理文件和目录等任务。 HDFS提供了多种访问途径,包括Web界面、Shell命令行以及编程API。对于初学者和运维人员,通过Shell命令行...

    一步一步跟我学习hadoop(6)----hadoop利用FileSystem API 执行hadoop文件读写操作

    本篇文章将详细讲解如何利用`FileSystem API`执行Hadoop文件的读写操作,带你一步步深入理解这一关键知识点。 首先,我们要了解`FileSystem API`的基本概念。它是一个抽象接口,用于与不同的文件系统(如HDFS、本地...

    hadoop2.8 window支持bin文件

    这个目录包含了Hadoop运行所需的各种命令行工具,如`hadoop`, `hdfs`, `yarn`, `mapred`等,它们都是可执行的脚本文件,用于启动、管理和操作Hadoop集群。 替换原有的"bin"目录是为了确保你使用的是Hadoop 2.8版本...

    HadoopHA集群配置文件

    本文将深入探讨Hadoop HA(高可用性)集群的配置文件,包括`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`、`yarn-site.xml`以及`slaves`文件,这些都是确保Hadoop集群稳定运行的基础。 1. `core-site.xml`:...

    hadoop/bin/hadoop.dll

    标题中的"hadoop/bin/hadoop.dll"指出这是一款与Hadoop框架相关的动态链接库(DLL)文件,它位于Hadoop安装目录的"bin"子目录下。在Windows操作系统中,DLL文件是程序运行所必需的组件,它们包含了可执行文件在运行...

    hadoop/bin目录文件,含hadoop.dll + winutils.exe

    这个文件是Hadoop与Windows操作系统交互的桥梁,使开发者能够在Windows环境下执行Hadoop相关的操作,如启动Hadoop服务、运行MapReduce任务等。 winutils.exe是Hadoop的Windows工具集,包含了诸如设置HDFS的HADOOP_...

    数据科学导论实验报告 实验1:常用Linux操作和 Hadoop操作

    本实验报告主要涵盖了两个核心部分:Linux操作系统的基本操作和Hadoop分布式文件系统的使用。 在Linux部分,实验旨在使学生熟悉一系列基础命令,这对于任何在Linux环境中工作的数据科学家都是必不可少的技能。例如...

Global site tag (gtag.js) - Google Analytics