一、调用hadoop api实现文件的上传、下载、删除、创建目录和显示功能
(1)添加必要的hadoop jar包。
A、首先将Hadoop1.1.2.tar.gz解压到某一个磁盘下。
B、右键选择工程,选择build path...., build configure path;
C、将hadoop1.1.2文件夹下的jar包添加进去;
还有lib文件夹下的所有jar包(注意:jasper-compiler-5.5.12.jar和jasper-runtime-5.5.12.jar不要引进,否则会报错)
注意:在build path引入这些jar包后,还需要将这些jar包复制到WEB-INF/lib目录下,可以通过下面操作实现:
选择工程,右键“Properties”,选择Deployment Assembly。
点击Add,选择Java Build Path Entries。
然后把你刚刚引进的Jar包全部选上,点击finishes。
D 、创建java工程
创建HdfsDAO类:
package com.model;
import java.io.IOException;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.mapred.JobConf;
public class HdfsDAO {
//HDFS访问地址
private static final String HDFS = "hdfs://192.168.1.104:9000";
public HdfsDAO(Configuration conf) {
this(HDFS, conf);
}
public HdfsDAO(String hdfs, Configuration conf) {
this.hdfsPath = hdfs;
this.conf = conf;
}
//hdfs路径
private String hdfsPath;
//Hadoop系统配置
private Configuration conf;
//启动函数
public static void main(String[] args) throws IOException {
JobConf conf = config();
HdfsDAO hdfs = new HdfsDAO(conf);
//hdfs.mkdirs("/Tom");
//hdfs.copyFile("C:\\files", "/wgc/");
hdfs.ls("hdfs://192.168.1.104:9000/wgc/files");
//hdfs.rmr("/wgc/files");
//hdfs.download("/wgc/(3)windows下hadoop+eclipse环境搭建.docx", "c:\\");
//System.out.println("success!");
}
//加载Hadoop配置文件
public static JobConf config(){
JobConf conf = new JobConf(HdfsDAO.class);
conf.setJobName("HdfsDAO");
conf.addResource("classpath:/hadoop/core-site.xml");
conf.addResource("classpath:/hadoop/hdfs-site.xml");
conf.addResource("classpath:/hadoop/mapred-site.xml");
return conf;
}
//在根目录下创建文件夹
public void mkdirs(String folder) throws IOException {
Path path = new Path(folder);
FileSystem fs = FileSystem.get(URI.create(hdfsPath), conf);
if (!fs.exists(path)) {
fs.mkdirs(path);
System.out.println("Create: " + folder);
}
fs.close();
}
//某个文件夹的文件列表
public FileStatus[] ls(String folder) throws IOException {
Path path = new Path(folder);
FileSystem fs = FileSystem.get(URI.create(hdfsPath), conf);
FileStatus[] list = fs.listStatus(path);
System.out.println("ls: " + folder);
System.out.println("==========================================================");
if(list != null)
for (FileStatus f : list) {
//System.out.printf("name: %s, folder: %s, size: %d\n", f.getPath(), f.isDir(), f.getLen());
System.out.printf("%s, folder: %s, 大小: %dK\n", f.getPath().getName(), (f.isDir()?"目录":"文件"), f.getLen()/1024);
}
System.out.println("==========================================================");
fs.close();
return list;
}
public void copyFile(String local, String remote) throws IOException {
FileSystem fs = FileSystem.get(URI.create(hdfsPath), conf);
//remote---/用户/用户下的文件或文件夹
fs.copyFromLocalFile(new Path(local), new Path(remote));
System.out.println("copy from: " + local + " to " + remote);
fs.close();
}
//删除文件或文件夹
public void rmr(String folder) throws IOException {
Path path = new Path(folder);
FileSystem fs = FileSystem.get(URI.create(hdfsPath), conf);
fs.deleteOnExit(path);
System.out.println("Delete: " + folder);
fs.close();
}
//下载文件到本地系统
public void download(String remote, String local) throws IOException {
Path path = new Path(remote);
FileSystem fs = FileSystem.get(URI.create(hdfsPath), conf);
fs.copyToLocalFile(path, new Path(local));
System.out.println("download: from" + remote + " to " + local);
fs.close();
}
}
在测试前,请启动hadoop;
运行测试该程序:
其他函数测试也成功,这里就不一一列举了。
二、结合web前台和hadoop api
打开Uploadservlet文件,修改:
package com.controller;
import java.io.File;
import java.io.IOException;
import java.util.Iterator;
import java.util.List;
import javax.servlet.ServletContext;
import javax.servlet.ServletException;
import javax.servlet.http.HttpServlet;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;
import javax.servlet.jsp.PageContext;
import org.apache.commons.fileupload.DiskFileUpload;
import org.apache.commons.fileupload.FileItem;
import org.apache.commons.fileupload.disk.DiskFileItemFactory;
import org.apache.commons.fileupload.servlet.ServletFileUpload;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.mapred.JobConf;
import com.model.HdfsDAO;
/**
* Servlet implementation class UploadServlet
*/
public class UploadServlet extends HttpServlet {
/**
* @see HttpServlet#doGet(HttpServletRequest request, HttpServletResponse response)
*/
protected void doGet(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException {
this.doPost(request, response);
}
/**
* @see HttpServlet#doPost(HttpServletRequest request, HttpServletResponse response)
*/
protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException {
request.setCharacterEncoding("UTF-8");
File file ;
int maxFileSize = 50 * 1024 *1024; //50M
int maxMemSize = 50 * 1024 *1024; //50M
ServletContext context = getServletContext();
String filePath = context.getInitParameter("file-upload");
System.out.println("source file path:"+filePath+"");
// 验证上传内容了类型
String contentType = request.getContentType();
if ((contentType.indexOf("multipart/form-data") >= 0)) {
DiskFileItemFactory factory = new DiskFileItemFactory();
// 设置内存中存储文件的最大值
factory.setSizeThreshold(maxMemSize);
// 本地存储的数据大于 maxMemSize.
factory.setRepository(new File("c:\\temp"));
// 创建一个新的文件上传处理程序
ServletFileUpload upload = new ServletFileUpload(factory);
// 设置最大上传的文件大小
upload.setSizeMax( maxFileSize );
try{
// 解析获取的文件
List fileItems = upload.parseRequest(request);
// 处理上传的文件
Iterator i = fileItems.iterator();
System.out.println("begin to upload file to tomcat server</p>");
while ( i.hasNext () )
{
FileItem fi = (FileItem)i.next();
if ( !fi.isFormField () )
{
// 获取上传文件的参数
String fieldName = fi.getFieldName();
String fileName = fi.getName();
String fn = fileName.substring( fileName.lastIndexOf("\\")+1);
System.out.println("<br>"+fn+"<br>");
boolean isInMemory = fi.isInMemory();
long sizeInBytes = fi.getSize();
// 写入文件
if( fileName.lastIndexOf("\\") >= 0 ){
file = new File( filePath ,
fileName.substring( fileName.lastIndexOf("\\"))) ;
//out.println("filename"+fileName.substring( fileName.lastIndexOf("\\"))+"||||||");
}else{
file = new File( filePath ,
fileName.substring(fileName.lastIndexOf("\\")+1)) ;
}
fi.write( file ) ;
System.out.println("upload file to tomcat server success!");
<span style="color:#ff0000;"> System.out.println("begin to upload file to hadoop hdfs</p>");
//将tomcat上的文件上传到hadoop上
JobConf conf = HdfsDAO.config();
HdfsDAO hdfs = new HdfsDAO(conf);
hdfs.copyFile(filePath+"\\"+fn, "/wgc/"+fn);
System.out.println("upload file to hadoop hdfs success!");</span>
request.getRequestDispatcher("index.jsp").forward(request, response);
}
}
}catch(Exception ex) {
System.out.println(ex);
}
}else{
System.out.println("<p>No file uploaded</p>");
}
}
}
启动tomcat服务器测试:
在上传前,hdfs下的wgc文件夹列表如下:
接下来我们上传:(4)通过调用hadoop的java api实现本地文件上传到hadoop文件系统上.docx
在tomcat服务器上,我们可以看到刚刚上传的文件:
打开http://hadoop:50070/查看文件系统,可以看到新上传的文件:
那么,到此,一个简陋的网盘上传功能就实现了,接下来我们就对这个简陋的网盘做一些美工,让它看起来更漂亮些。
参考资料:
http://blog.fens.me/hadoop-hdfs-api/
分享到:
相关推荐
【标题】:“基于Hadoop的网盘应用” 在当今大数据时代,Hadoop作为一个开源的分布式计算框架,已经广泛应用于各种领域,其中包括网盘服务。基于Hadoop的网盘应用充分利用了其分布式存储和处理能力,为用户提供了...
【描述】基于Hadoop的简单网盘实现源代码,配合博客文章进行学习,可以了解到如何将Hadoop的分布式特性应用于文件存储服务。通常,这种网盘实现会包括文件的上传、下载、搜索、删除等基本功能。开发者可以通过分析和...
【标题】基于Hadoop的云盘系统 在云计算领域,数据存储和管理是核心问题之一。基于Hadoop的云盘系统是一种分布式存储解决方案,利用Hadoop的可扩展性和高容错性来处理大规模数据。Hadoop是Apache软件基金会的一个...
标题 "基于Hadoop的简单网盘实现源代码.rar" 提供了一个关键信息,即这个压缩包包含了一套源代码,该代码实现了一个基于Hadoop框架的简单网盘服务。Hadoop是一个开源的分布式计算框架,它允许在大规模数据集上进行...
随着人工智能技术的发展,Hadoop网盘管理系统有望结合AI技术,实现智能文件分类、推荐,甚至自动生成文件摘要,进一步提升用户效率。此外,结合容器化技术如Docker和Kubernetes,可以更灵活地管理和调度Hadoop集群...
【基于Hadoop的网盘程序】是一个学习项目,旨在实现文件的上传和下载功能,利用了分布式计算框架Hadoop的核心特性。Hadoop是Apache软件基金会的一个开源项目,它为大数据处理提供了可扩展的、可靠的解决方案。这个...
总的来说,基于Hadoop的校园网盘设计实现了安全、高效的文件存储和共享,利用先进的分布式计算技术解决了传统存储方式的局限性,为高校信息化建设提供了新的思路。随着技术的发展,未来还可以考虑引入更高级的功能,...
《基于Hadoop的网盘实现详解》 在当今大数据时代,高效、稳定的数据存储与处理成为企业关注的焦点。Hadoop作为开源的分布式计算框架,以其强大的数据处理能力,广泛应用于各种大规模数据处理场景,包括云盘服务。...
本项目“基于HADOOP的网盘后端”便是对这种分布式存储和处理技术在云存储服务中的具体应用,旨在构建一个高效、可靠且可扩展的网络硬盘后台。 Hadoop是Apache软件基金会开发的一个开源项目,主要由HDFS(Hadoop ...
在实际应用中,基于Hadoop的网盘系统可能会面临一些挑战,如数据安全性、性能优化、扩展性等问题。为了解决这些问题,开发团队可能采用了诸如加密传输、访问控制列表、负载均衡等技术手段。同时,通过持续监控和调优...
本资料包"行业分类-设备装置-基于Hadoop平台的应用报表实现方法、设备及存储介质.zip"聚焦于如何利用Hadoop平台来构建和实现应用报表,以及涉及到的相关硬件和存储解决方案。 首先,我们需要理解Hadoop的核心组件。...
本项目“基于hadoop+hbase+springboot实现分布式网盘系统”旨在利用这些技术搭建一个高效、可扩展的存储解决方案。 **Hadoop** 是一个开源的分布式计算框架,主要由HDFS(Hadoop Distributed File System)和...
本文旨在深入探讨基于Hadoop的Web日志挖掘技术,包括其设计原理、实现机制以及实际应用效果。 #### 二、基于Hadoop的Web日志挖掘平台设计 Hadoop是一个能够处理大规模数据集的开源软件框架,由Apache基金会维护。...
总的来说,设计一个基于Hadoop的数据分析系统涉及到多个环节,从需求分析到系统设计,再到具体的部署和优化,每个步骤都需要细致考虑和精心实施。通过这样的系统,企业能够高效地处理和分析海量数据,从而获取有价值...
【标题】"基于HADOOP的网盘前端.zip"揭示了这个项目是关于构建一个基于Hadoop技术的网络存储系统前端。Hadoop是Apache软件基金会开发的一个开源框架,主要用于处理和存储大量数据,尤其适用于大数据分析。这个项目...
【标题】"基于Hadoop的网盘 (2).zip" 提供的是关于使用Hadoop构建分布式存储系统的相关信息,这通常涉及到大数据处理、云计算以及数据存储技术。Hadoop是Apache基金会开发的一个开源框架,专为处理和存储大规模数据...
标题 "基于hadoop,利用ssh框架实现hdfs网盘.zip" 暗示了这个压缩包包含的内容是关于如何在Hadoop平台上构建一个基于SSH(Secure Shell)框架的HDFS(Hadoop Distributed File System)网盘。这涉及到分布式存储、...
本篇文章将深入探讨Hadoop在人工智能领域的应用,以及如何构建基于Hadoop的数据分析系统。 一、Hadoop核心组件与原理 Hadoop主要由两个关键组件构成:Hadoop Distributed File System (HDFS) 和 MapReduce。HDFS是...