- 浏览: 168231 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (81)
- UI (6)
- 后台 (22)
- 数据库 (3)
- 其他 (3)
- 问题集 (5)
- android (0)
- 随笔 (2)
- lucene (0)
- htmlParser (1)
- python (14)
- mongodb (1)
- HTTP (1)
- eclipse (1)
- EXTJS (2)
- Spring (1)
- maven (4)
- WEB JS (2)
- java tree (1)
- javascript ActionScript (1)
- 工具 (2)
- httpclient (1)
- tomcat gzip (1)
- 线程 (1)
- 数据库 MYSQL (1)
- 后台 缓存 (1)
- linux (3)
- SQL (1)
- hadoop (1)
最新评论
-
asqin:
getFileIO 时 in 对象为null
java修改,读取properties文件 -
holleyangyanges:
你试过你的代码吗?
HttpClient CAS -
a455642158:
tks……
java修改,读取properties文件 -
faikr:
请问,这个子表的数据,你是怎么和主表相关字段做对应的?比如,我 ...
jquery之jquerygrid-subgrid -
jrius:
这种方式 应该是抓不到的,百度指数使用了amf格式
JAVA抓取百度指数数据
package com.lch.find; import java.io.IOException; import java.util.Iterator; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.FloatWritable; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.util.GenericOptionsParser; public class SearchMaxValue { public static class SearchMaxValueMapper extends Mapper<LongWritable, Text, IntWritable, FloatWritable>{ private final static IntWritable one = new IntWritable(1); @Override protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { String str = value.toString().trim(); float flo = Float.parseFloat(str); context.write(one, new FloatWritable(flo)); } } public static class SearchMaxValueReducer extends Reducer<IntWritable, FloatWritable, Text, FloatWritable>{ @SuppressWarnings("rawtypes") public void reduce(IntWritable key, Iterable<FloatWritable> values, Context context) throws IOException, InterruptedException{ Iterator it = values.iterator(); float maxFloat = 0, tmp; if(it.hasNext()){ maxFloat = ((FloatWritable) it.next()).get(); }else{ context.write(new Text("Max Value : "), null); return; } while(it.hasNext()){ tmp = ((FloatWritable) it.next()).get(); if(tmp > maxFloat){ maxFloat = tmp; } } context.write(new Text("Max value is :"), new FloatWritable(maxFloat)); } } public static void main(String[] args) throws IOException, InterruptedException, ClassNotFoundException { Configuration conf = new Configuration(); String[] paths = { "hdfs://192.168.1.136:9000/tmp/test.txt", "hdfs://192.168.1.136:9000/tmp/outputs" }; String[] otherArgs = new GenericOptionsParser(conf, paths).getRemainingArgs(); Job job = new Job(conf, "SearchValue"); job.setJarByClass(SearchMaxValue.class); job.setMapperClass(SearchMaxValueMapper.class); job.setReducerClass(SearchMaxValueReducer.class); job.setMapOutputKeyClass(IntWritable.class); job.setMapOutputValueClass(FloatWritable.class); job.setOutputKeyClass(Text.class); job.setOutputValueClass(FloatWritable.class); FileInputFormat.addInputPath(job, new Path(otherArgs[0])); FileOutputFormat.setOutputPath(job, new Path(otherArgs[1])); System.exit(job.waitForCompletion(true) ? 0 : 1); } }
代码比较简单 不多解释
附上数据信息
12.5
85.0
236
239
23
2
0
1
9
236
232.0
发表评论
-
iptables
2012-11-08 09:24 9311、安装iptables防火墙 Cen ... -
Externalizable
2012-07-11 12:27 979被Serializable接口声明的类的对象的内容都将被序列化 ... -
cxf Dynamic webservice
2012-06-06 11:18 1635/** * @Title: DynamicClient ... -
枚举单例
2012-06-02 22:23 955package myproject.javatest; ... -
Java 自定义错误类【转】
2012-03-29 11:37 856原文地址 :[url] http://www.cnblogs. ... -
eclipse: Access restriction Error
2012-02-22 15:32 929在搭建项目环境时出现了以下编译错误: Access res ... -
eclipse 不自动编译java文件的问题
2012-02-21 11:14 1701「Project」菜单 「项目」菜单可以对工作台中的项目执行动 ... -
Filter指定浏览器来缓存或不缓存服务器数据
2012-02-17 15:08 1749import java.io.*; import ... -
JAVA 单例的两种模式
2012-02-16 09:52 1446/** * 单例模式:保证一个java的类只有一个实例 ... -
httpclient4 小例子
2012-02-01 16:29 1448import java.io.BufferedReader ... -
java修改,读取properties文件
2011-11-22 16:04 11804package com.ideamov.platform.ut ... -
【转】JSONLIB
2011-11-17 12:44 816Json-lib可以将Java对象转成json格式的字符串,也 ... -
转 HttpClient 基础
2011-01-14 11:57 672原文地址:http://blog.csdn ... -
java 综合
2011-01-12 15:34 787JAVA 打包 CMD下进入WEB目录下 jar cvf ca ... -
JBOSS HTTPS 续
2011-01-12 15:01 1517原文地址:http://docs.jboss.org/jbos ... -
JBOSS HTTPS
2011-01-12 15:00 1336<Server> <!--APR ... -
HttpClient CAS
2011-01-11 10:09 2635package com.lch.sso; import ... -
spring security2.x 统一权限管理 数据库读取权限
2010-11-30 14:41 1429最近在研究统一权限管理,在网上深找了这一块资料,虽然JAVA开 ... -
java执行CMD命令
2010-11-12 15:22 1427package com.lch.swf; impor ... -
JAVA抓取百度指数数据
2010-11-09 09:41 6531在论坛看帖子看到一则 ...
相关推荐
本教程将详细讲解如何使用Java编程语言操作Hadoop的MapReduce来计算整数序列中的最大值和最小值,这对于数据分析和处理任务来说是非常基础且实用的技能。 首先,我们需要理解MapReduce的工作原理。MapReduce是一种...
这一步骤通常包括最大值查找,因为我们要找的是每年的最高气温。 5. **结果输出**:最后,reduce阶段的结果将写回到HDFS,形成一个新的文件,包含每年的最高气温记录。 【标签】"hadoop"表明这个示例代码完全基于...
通过阅读提供的“Hadoop配置文档.docx”,你可以深入了解这些概念,并根据实际需求定制和优化你的Hadoop集群配置,从而最大化利用大数据处理的能力。同时,博文链接中的内容也可能是对这些知识点的补充和实践案例,...
在实际应用中,"Path Finder.app"可能是一个用于在Hadoop或Spark集群中查找文件路径的工具,而"Assets"可能包含了项目相关的配置文件、库或数据集。这些资产可能是运行Hadoop或Spark作业所必需的,例如,配置文件...
5. **yarn.scheduler.minimum-allocation-mb**和`yarn.scheduler.maximum-allocation-mb`:YARN(Yet Another Resource Negotiator)调度器分配给每个容器的最小和最大内存,决定任务的并行度。 博客中可能提供的...
通过运行这个示例,我们可以直观地看到如何利用Hadoop处理温度数据,实现排序、分组、分区和查找最高温度的全过程。这个例子对于理解和掌握Hadoop在大数据处理中的应用具有很好的教学价值。 总的来说,Hadoop01Demo...
例如,在大规模数据集中查找并转换循环无理数的过程可以借助Hadoop 2的分布式计算能力高效完成。具体来说,可以设计MapReduce程序来处理大量的数字数据,将每个数字转换为其对应的分数形式。 ### 四、代码实现 代码...
+ 本案例使用Hadoop来解决TOPN问题,查找_topN_个最大或最小的数据记录。 + 涉及到数据处理、数据分析等相关技术。 编写MAP代码 本单元还涵盖了编写MAP代码的相关知识,旨在帮助读者学习Hadoop的编程技术。 第...
- **线程数**:调整Map和Reduce任务的最大线程数。 - **网络带宽**:优化网络带宽以减少数据传输时间。 #### 十、Hadoop平台的Java规范及经验 - **编码规范**: - **命名规则**:遵循Java标准命名规则,提高代码...
它允许使用简单的编程模型来扩展从单一服务器到数千台机器的计算任务,每台机器都提供本地计算存储。对于不熟悉底层分布式系统原理的程序员来说,Hadoop提供了一个友好的平台,让他们能够轻松地编写并行处理程序。 ...
Mapreduce程序可查找前10个好友对,其中最大的共同好友数。 使用与第一个程序相同的数据。 程序使用作业链接方法。 3.查找大量数字的均值和方差 使用组合器以减少减速器的负载。 4.查找大量数字的最小值,最大值和...
同时,它利用Zookeeper进行快速的数据查找,提升了访问速度。 【HBase集群中的角色】 HBase集群包含三个主要角色: 1. HMaster:负责监控RegionServer,处理Region的分配和迁移,以及故障恢复。 2. HRegionServer...
word源码java hadoop-test hadoop、mapreduce的一些练习 包org.dan.service Hadoop ...包org.dan.mr.max_order_price MapReduce编写自定义的Partitioner和GroupingComparator实现高效求最大值 包org.dan.mr.smallfile M
总之,Hadoop的MapAll-Reduce操作为大数据处理提供了一种强大的工具,它允许在分布式系统中进行更复杂的计算任务,如全局平均、最大值或最小值的查找等。而Java作为Hadoop的主要编程语言,提供了丰富的API和工具来...
2. 二分查找实现:二分查找是一种在有序数组中查找特定元素的算法。其基本思想是每次比较中间元素,根据比较结果缩小搜索范围。以下是C语言实现: ```c int binary_search(int array[], int key, int low, int high)...
题目要求从给定数组中选取若干整数,使得它们的和最大,且相邻的数不能同时被选。要求空间复杂度为O(1)。 - **解题思路**:使用动态规划的思想,定义`max1`表示前n-2个元素的最大值,`max2`表示前n-1个元素的最大值...
* 查找:SELECT * FROM table1 WHERE field1 LIKE '%value1%' * 排序:SELECT * FROM table1 ORDER BY field1, field2 [DESC] * 总数:SELECT COUNT(*) AS totalcount FROM table1 * 求和:SELECT SUM(field1) AS ...
例如,Hadoop和MapReduce是常见的分布式处理框架。 在处理海量数据时,常见的策略有: 1. **分而治之/hash映射 + hash统计 + 堆/快速/归并排序**:将数据划分为多个部分,对每个部分独立处理,然后合并结果。 2. **...
8. **哈希表**:哈希表在查找和插入操作上具有高效性能,常见题目有两数之和、无重复字符的最长子串等。 9. **堆与队列**:优先队列(堆)在解决最大/最小元素问题时很有用,如Top K问题。 10. **位运算**:位运算...