一、序言
我们群里发了了一个挑战,题目大概是:2亿随即字符串,在一个txt 文本里面,找出出现频率最高的前100 个字符串,双核CPU,4G 内存,当然JVM 只开了1G。
其实类似的题目,很多公司也都有了,但是可能思想说得多,实战稍微少点,这里我抽空也写了一种通用的,凡是上诉题目都可以按方法进行处理,也做可以做其他扩展和优化。
二、设计原理
1.我用他们提供的字符串生产文件,接近3G,肯定不能全部放入内存
2.我创建了一个2亿的int 数组,但是由于想hash 分布均匀,采用hashMap的算法模式,需要额外的空间,也就是268435456,相当于2.6亿空间,要刚好1G的内存,加上其他需要的空间分配,超过了限制,我这里分配的是1200M空间,当然原理类似,这里我们没对算法做更多的优化,后面有时间再单独研究。bits = new int[2.6亿];
3.然后读取每一行数据,进行hash 计算,以及index = indexFor(int hash,int length) 确定位置。这样我们就知道每一行数据存放的位置,然后进行 bit[index] ++运算,也就是说我们就可以知道所有字符串所出现的次数,当然可能会出现hash冲突,几率很小,这种算法允许低冲突率。
4.同时我们需要建立一个数组new Entry[100],这里用于存放我们的高频词的位置,当我们遍历每一行的同时,还需要将该行字符串出现的次数保存,按出现次数保留前100.最后就是我们要的结果。
三、实现代码
/** * 工具类,处理每行信息记录的数据结构 * 未解决hash冲突,暂时允许一部分重复,需要改进 * 这是初级版本,后续在改变 * @author Michael_Ran * @param <V> */ public class CountMap<V> { // 内容数组 transient Entry<V>[] table; // 下标数组 transient int[] bits;; // 光标移动位置,实际长度 transient int size; // 实际允许长度 transient int threshold; // 下标位置 transient int position; // 容量长度 transient static int bits_capacity = 16; // 初始化长度 @SuppressWarnings("unchecked") public CountMap(int initTopNum,int initTotalLines) { int capacity = 1; // 初始化内容数组 while (capacity < initTopNum) capacity <<= 1; table = new Entry[capacity]; // 初始化下标数组 while(bits_capacity < initTotalLines) bits_capacity <<= 1; bits = new int[bits_capacity]; this.threshold = initTopNum; } // 判断是否存在 boolean contains(Object value) { for (Entry<V> e : table) { if (e != null && hash(value.hashCode()) == e.hash) return true; } return false; } // 计算hash,这里需要进行改进 int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); // ConcurrentHashMap 的算法 // h += (h << 15) ^ 0xffffcd7d; // h ^= (h >>> 10); // h += (h << 3); // h ^= (h >>> 6); // h += (h << 2) + (h << 14); // return h ^ (h >>> 16); } // 计算位置 int indexFor(int h, int length) { return h & (length - 1); } // 计算容量位置 int putBits(V value,int hash){ int index = indexFor(hash,bits_capacity); return ++ bits[index]; } // 存放 public void put(V value) { int hash = hash(value.hashCode()); int count = putBits(value,hash); // 未存满 if (size < threshold) { if (count == 1) { Entry<V> newEntry = new Entry<V>(value, hash); table[size] = newEntry; if (size > 0) { table[size - 1].after = newEntry; newEntry.before = table[size - 1]; } size++; } else { for (int i = 0; i < threshold; i++) { Entry<V> e = table[i]; // 获取最小的元素位置,直接替换 if (e.value.equals(value)) { e.count = count; e.hash = hash; return; } } } } // 已经存满,因此从个数大于1开始寻找 if (count > 1) { if(position == threshold){ position = 0; } for (int i = position; i < threshold; i++) { Entry<V> e = table[i]; if (e.count < count) { replace(e, value, count, hash); return; } } } } public void replace(Entry<V> oldEntry,V value,int count,int hash){ oldEntry.count = count; oldEntry.value = value; oldEntry.hash = hash; } // 获取对象 public Entry<V> getEntry(Object value) { for (Entry<V> e : table) { if (e != null && e.equals(value)) return e; } return null; } // 获得集合 public Entry<V>[] getEntries() { return table; } // 获得实际长度 public int size() { return size; } // 内部类 static class Entry<V> { int count, hash; V value; Entry<V> before, after; public Entry(V value, int hash) { super(); this.count = 1; this.value = value; this.hash = hash; } // 自增 public int incrementAndGet() { return count++; } @Override public String toString() { return this.value + ":" + count; } } }
import java.io.BufferedReader; import java.io.File; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; public class T { // 文件路径 static final String FILEPATH = "d:/b.txt"; // 出现次数排名最多的数 static int TOP_NUM = 100; // 文件行数,只要大于总行数就行,默认2亿 static int TOTAL_LINES = 200000000; // 容器 static CountMap<String> map = new CountMap<String>(TOP_NUM, TOTAL_LINES); public static void main(String[] args) throws ClassNotFoundException, InstantiationException, IllegalAccessException { long begin = System.currentTimeMillis(); // 计算 getTopN(FILEPATH); long result = System.currentTimeMillis()-begin; System.out.println("总时间为:"+result +"毫秒"); System.out.println("-------数据结果---------"); for(int i = 0;i<map.size();i++){ System.out.println(map.getEntries()[i]); } } // 计算 public static void getTopN(String filepath){ BufferedReader bw = null; try { File f = new File(filepath); bw = new BufferedReader(new FileReader(f)); String str = null; while ((str = bw.readLine()) != null) { map.put(str); } } catch (FileNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { try { if(bw != null){ bw.close(); } } catch (IOException e) { e.printStackTrace(); } } } }
四、优化方案
1.可以看出我们仍然需要比较大的空间,我们可以改进hash算法,不用那么大的空间
2.在重复率比较高的情况下,我们大概知道不重复数据只有N 的时候,就根据N 创建空间
3.在上面都不能实现的情况,我们可以分块空间,比如我们刚才最糟糕的情况,全都不重复,需要2亿空间,实际空间接近2.7亿,浪费很大。那么我们可以我可以开辟2个空间,第一个在获得2.7亿之前,也就是小于2亿的的空间,然后计算这部分行数的排行,同理计算第二批空间的排行,这样可能出现有一部分字符串分布 不均匀和 均匀问题,导致汇总数据不对,那么我们可以对每个空间进行扩大范围查询,也就是我们可以对第一个空间查询100*10 的排行,第二个空间同理,最后再汇总 计算前100,可以避免很大部分误差。
4.上面是以空间换时间,我们可以采用链表结构,不创建那么大的数组,以链表的形式记录每行的hash值,以及count次数,然后每次遍历进行循环,这样链表节点必定小于不重复的数据。这里需要做链表节点的优化,最好用hash树的形式,节约查找的时间。同时也可以用hash范围空间 进行查找,反正得减少每次循环的次数。
小结:
1.上面方法临时写的,很多没来得及优化,大概想了一下方法,为了减少一定比较,也没直接继承hashMap,欢迎大家吐槽!
2.关于hash 分布的问题,我也考虑过寻址 以及 链表的形式 或者树的形式,算法这块不强,有熟悉的朋友可以介绍接晒。
3.对于现在数据,几亿数据,10G以内的文件,我相信这种方法 在现在计算机内存运算来说还比较快的,虽然损耗了一部分准确率。
4.大数据很多的处理,可以先采用文件分割,然后多线程(和CPU数量有关)处理,放大结果集,然后合并的也是不错的选择。
5.不好的地方请指教,有更好的方法欢迎提供,非常感谢!后续有更好的,我也会给大家分享。
6.JDK 1.8 有个特性,好像是用堆外内存来处理OOM,也就是说暂时可以借系统内存,也可以限定范围,有兴趣的朋友可以研究研究!
相关推荐
这份"大数据高频面试题"文档汇总了2020年多家机构在招聘过程中常问的大数据相关问题,旨在帮助求职者更好地准备面试,提升成功概率。 第一章主要围绕大数据项目涉及的技术进行展开,主要包括Linux和Shell、Hadoop等...
大数据技术之高频面试题8.0.2.pdf 以下是从给定文件中生成的相关知识点: Linux和Shell * Linux常用高级命令:包括文件管理、进程管理、磁盘管理、网络管理等命令。 * Shell常用工具及写过的脚本:包括sed、awk、...
Flink的checkpoint机制与Spark相比,主要区别在于Flink实现了状态的一致性保证,即能够提供精确一次(exactly-once)的状态一致性保证,而传统Spark Streaming只提供了最多一次(at-most-once)或至少一次(at-least...
面试题,技术点总结,高频问题总结,常问业务方案和场景。一份好的面试备战资料,祝你在大数据面试中脱颖而出,实现高薪就业。在职的朋友,可以当作大纲复习回顾
### 大数据技术高频面试题解析 #### 一、Linux & Shell **1.1 Linux 常用高级命令** Linux环境下,掌握一系列高级命令对于高效管理与维护系统至关重要。 - **1.1.1 Linux常用高级命令** - `awk`: 用于强大的...
根据提供的文件信息,我们可以归纳出一系列与大数据技术相关的高频面试知识点。这些知识点主要围绕着Linux、Hadoop等核心技术展开,并且深入到了各个技术的具体应用场景和技术细节。以下是对这些知识点的详细解析: ...
在大数据领域,面试通常会涉及到多个关键的技术框架和概念,包括Hadoop、Spark、HBase和Hive等。这些技术是构建大规模数据处理和分析系统的核心组件。以下将详细介绍这些技术的一些重要知识点。 **Hadoop** 是一个...
【大数据高频面试题】主要涉及Spark中的核心概念——弹性分布式数据集(RDD),它是Spark的基础数据结构。RDD具有以下特性: 1. **RDD的构成**:RDD是由一系列分区(Partition)组成的,每个分区是一个数据块,分布在...
本文将基于给定的文件信息,对“大数据-算法-灌木收割切削性能与刀具参数的研究”这一主题进行深入探讨。 首先,大数据技术在收集和处理灌木物理属性方面发挥着关键作用。针对不同的灌木种类,如沙棘(Caragana ...
《大数据-算法-深圳股票市场超高频数据分析》这篇论文深入探讨了在大数据和算法技术支持下,如何对深圳股票市场的高频交易数据进行分析。高频数据,尤其是超高频数据,为金融市场研究提供了前所未有的详细信息,同时...
4. **LZO压缩**:一种快速但压缩率较低的压缩算法,适用于实时性要求高的场景。 5. **Hadoop参数调优**:包括调整Block大小、副本数量、内存分配、CPU核心分配等,以适应不同的工作负载。 6. **基准测试**:使用...
在自动控制理论和电机控制领域,高频注入算法是一种非常重要的技术。近年来,随着电机技术的不断进步,对无感FOC(Field Oriented Control,即矢量控制)的需求日益增强。无感FOC主要利用电机本身无传感器的特性来...
大数据-算法-基于超高频数据的计量建模方法及市场交易行为量化研究.pdf
《大数据-算法-带跳的分数维积分过程的幂变差理论及其在金融高频数据中的应用》这篇文献探讨了大数据背景下,特别是在金融领域的高频数据分析中,如何运用算法理解和处理带有跳跃特性的分数维积分过程。分数维积分...