`
heipark
  • 浏览: 2094840 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

自己编写接口用于获取Hadoop Job conf 信息

阅读更多

Hadoop Job完成后可以设置回调接口,一个自定义的URL,比如我的:

 

http://x.x.x.x/log/notify/stat_job/{jobId}/{jobStatus}

 

之后我在Servlet中可以拿到jobId,通过jobId,就可以拿到Job对象(RunningJob),代码如下:

 

	public static RunningJob getJobById(String jobId) {
		Configuration conf = new Configuration();
		conf.set("mapred.job.tracker", Constants.MAP_REDUCE_URL);
		JobClient client;
		try {
			client = new JobClient(new JobConf(conf));
			return client.getJob(jobId);
		} catch (IOException e) {
			throw new RuntimeException(e);
		}
	}
 

关键是这个RunningJob对象只可以获取jobname信息,但是无法获取我们设置的conf信息。为了解决这个问题,我写了一个jsp,放到namenode上,用于读取本地log文件,并将结果反馈给调用者。代码如下,希望对大家有帮助:

 

<%@ page
  contentType="text/xml; charset=UTF-8"
  import="javax.servlet.*"
  import="javax.servlet.http.*"
  import="java.io.*"
  import="java.net.URL"
  import="org.apache.hadoop.util.*"
  import="javax.servlet.jsp.JspWriter"
%><%!	
	private static final long serialVersionUID = 1L;

        public File getHistoryFile(final String jobId) {
                File dir = new File("/opt/hadoop/logs/history/done/");

                File[] files = dir.listFiles(new FilenameFilter() {
                        public boolean accept(File dir, String name) {
				if (name.indexOf(jobId) >= 0 && name.endsWith(".xml")) {
					return true;
				}
                                return false;
                        }
                });

                if (files != null && files.length > 0) {
                        return files[0];
                }
                return null;
        }

	public void printXML(JspWriter out, String jobId) throws IOException {
		FileInputStream jobFile = null;
		String[] outputKeys = { "db_id", "channel_id", "channel_name", "user_id", "user_name", "job_day", "pub_format_type", "mapred.output.dir" };
		String line = "";
		try {
			jobFile = new FileInputStream(getLogFilePath(jobId));
			BufferedReader reader = new BufferedReader(new InputStreamReader(jobFile));

			while ((line = reader.readLine()) != null) {
				for (String key : outputKeys) {
					if (!line.startsWith("<property>") || line.indexOf("<name>" + key + "</name>") >= 0) {
						out.println(line);
						break;
					}
				}
			}
		} catch (Exception e) {
			out.println("Failed to retreive job configuration for job '" + jobId + "!");
			out.println(e);
		} finally {
			if (jobFile != null) {
				try {
					jobFile.close();
				} catch (IOException e) {
				}
			}
		}
	}

	private File getLogFilePath(String jobId) {
		String logDir = System.getProperty("hadoop.log.dir");
		if (logDir == null || logDir.length() == 0) {
			logDir = "/opt/hadoop/logs/";
		}
		File logFile = new File(logDir + File.separator + jobId + "_conf.xml");
		return logFile.exists() ? logFile : getHistoryFile(jobId);
	}

%><%
  response.setContentType("text/xml");
  final String jobId = request.getParameter("jobid");
  if (jobId == null) {
    out.println("<h2>Missing 'jobid' for fetching job configuration!</h2>");
    return;
  }

  printXML(out, jobId);

%>
 

    这里有个要点,运行中和刚完成的job xml文件放到了"/opt/hadoop/logs"下,归档的job xml放到了“/opt/hadoop/logs/history/done/”,所以要判断第一个地方找不到文件,去第二个地方找。

 

    功能很简单,但是很有用。

 

--heipark

 

 

 

分享到:
评论

相关推荐

    win7下hadoop job提交

    在Windows 7环境下提交Hadoop作业(Job)是一项技术性的任务,涉及到多个步骤和概念。首先,我们需要了解Hadoop的基本架构。Hadoop是由Apache软件基金会开发的一个开源分布式计算框架,它允许在廉价硬件上处理和存储...

    使用命令行编译打包运行自己的MapReduce程序 Hadoop2.6.0

    此外,我们还可以通过运行`hadoop classpath`命令来获取运行Hadoop程序所需的完整classpath信息,这对于理解整个系统所依赖的所有JAR文件非常有帮助。 #### 编译、打包Hadoop MapReduce程序 为了能够顺利地编译和...

    java下hadoop开发使用jar包

    Job job = Job.getInstance(conf, "My Hadoop Job"); job.setJarByClass(MyHadoopJob.class); job.setMapperClass(MyMapper.class); job.setReducerClass(MyReducer.class); FileInputFormat.addInputPath...

    HadoopAPI使用

    org.apache.hadoop.metrics 包定义了用于性能统计信息的 API,用于监控和优化 Hadoop 集群的性能。org.apache.hadoop.record 包定义了针对记录的 I/O API 类,以及一个记录描述语言翻译器,用于简化记录的序列化和反...

    myeclipse开发hadoop插件

    6. **测试和运行**:编写完MapReduce代码后,通过MyEclipse的Run As菜单选择"Hadoop Job",选择目标Hadoop集群,即可运行并调试你的程序。 在实际开发过程中,Hadoop-eclipse-plugin可以帮助开发者快速定位数据源、...

    hadoop 命令大全

    对于作业的更深入分析,如成功的任务数量以及每个任务的尝试次数等信息,可以通过命令`$bin/hadoop job -history all output-dir`来获取。 **5. 格式化新的分布式文件系统** 在部署新的Hadoop集群或重置现有集群时...

    java操作hadoop之mapreduce计算整数的最大值和最小值实战源码

    4. **编写驱动程序**:驱动程序设置输入和输出路径,创建Job对象,设置Mapper和Reducer类,然后提交Job给Hadoop集群执行。 5. **运行和验证结果**:运行程序后,结果将写入到指定的输出路径,通常是一个或多个part-...

    最新Hadoop学习笔记

    Hadoop是一个开源的分布式计算框架,由Apache基金会开发,主要用于处理和存储海量数据。它的核心组件包括HDFS(Hadoop Distributed File System)和MapReduce,两者构成了大数据处理的基础架构。本笔记将从环境搭建...

    配置Eclipse连接Hadoop

    - 配置其他相关环境变量,如`HADOOP_CONF_DIR`,指向Hadoop配置文件的目录。 2. **配置Eclipse插件**: - 安装Hadoop相关的Eclipse插件,如"Hadoop Eclipse Plugin"或"Big Data Tools",它们提供了与Hadoop集群...

    hadoop1.0.2 hbase0.94安装

    MapReduce开发是Hadoop的核心部分,用于实现大规模数据的并行处理。开发MapReduce程序通常包括编写Mapper和Reducer类,以及配置作业参数。例如: 1. **Mapper**:接收输入数据,进行初步处理,生成中间键值对。 2....

    Hadoop-eclipse-plugin-2.7.6下载与说明

    同时,通过Hadoop的日志系统,可以获取到更详细的错误信息,以便进行调试。 10. **优化与性能**:在开发过程中,你可能需要考虑如何优化MapReduce程序,比如减少数据传输、使用合适的数据类型、并行度调整等,以...

    Java访问Hadoop集群源码

    Hadoop是一个开源框架,主要用于存储和处理大规模数据集。本文将深入探讨如何利用Java API来与Hadoop集群进行交互,包括读取、写入数据以及执行MapReduce任务。 一、Hadoop简介 Hadoop的核心组件主要包括HDFS...

    运行hadoop jar

    1. **编写Java代码**:首先,你需要编写处理Hadoop数据的Java程序,这可能包括实现MapReduce的Mapper和Reducer类,或者其他Hadoop相关的接口。 2. **构建JAR文件**:使用Maven或Gradle等构建工具,将源代码打包成...

    hadoop-2.6.0.bin

    编写Java代码时,可以使用Hadoop的API来操作HDFS,如`FileSystem`类用于文件系统的操作,`FSDataInputStream`和`FSDataOutputStream`处理输入/输出流。为了在本地模式下运行,可以调用`MiniDFSCluster`启动一个小型...

    Hadoop默认端口清单-防火墙申请使用

    - **8020**:`fs.defaultFS`,这是NameNode的RPC端口,客户端通过此端口与NameNode进行交互,获取元数据信息。 - **JournalNode** - **8485**:`dfs.journalnode.rpc-address`,JournalNode的RPC服务端口,用于HA...

    web平台调用hadoop集群2.0

    3. **编写接口**:在Web应用中创建一个接口,用于与Hadoop集群通信。这个接口可以包含提交作业、查询作业状态、获取结果等功能。可以使用Hadoop的Java API,如`org.apache.hadoop.mapreduce.Job`类来提交和管理...

    基于Eclipse的Hadoop应用开发环境的配置

    4. **配置Hadoop配置文件**:在Hadoop的conf目录下,有两个关键的配置文件:`core-site.xml`和`hdfs-site.xml`。你需要在这里定义Hadoop的存储和运行参数,例如HDFS的默认名称节点、数据节点等。 5. **启动Hadoop**...

    hadoop面试题分解.pdf

    1. 杀死一个 job:hadoop job -list 得到 job 的 id,然后执行 hadoop job -kill jobId 2. 删除 HDFS 上的目录:hadoop fs -rmr /tmp/aaa 3. 增加一个新的存储节点:在新的节点上执行 Hadoop daemon.sh start ...

    实验2-在Hadoop平台上部署WordCount程序1

    WordCount程序通常用Java编写,需要实现`Mapper`和`Reducer`接口。`Mapper`负责读取输入数据,分词并生成键值对(, 1&gt;),而`Reducer`则汇总这些键值对,得到每个单词的总频次。 ```java public class WordCount { ...

    hadoop访问数据库

    2. **编写代码**:创建一个实现了`DBWritable`接口的类,例如`TeacherDBWritable`,用于封装读取的教师信息。 3. **配置作业**:使用`DBConfiguration.configureDB()`函数配置数据库连接信息,接着使用`...

Global site tag (gtag.js) - Google Analytics