一、序言
我们群里发了了一个挑战,题目大概是:2亿随即字符串,在一个txt 文本里面,找出出现频率最高的前100 个字符串,双核CPU,4G 内存,当然JVM 只开了1G。
其实类似的题目,很多公司也都有了,但是可能思想说得多,实战稍微少点,这里我抽空也写了一种通用的,凡是上诉题目都可以按方法进行处理,也做可以做其他扩展和优化。
二、设计原理
1.我用他们提供的字符串生产文件,接近3G,肯定不能全部放入内存
2.我创建了一个2亿的int 数组,但是由于想hash 分布均匀,采用hashMap的算法模式,需要额外的空间,也就是268435456,相当于2.6亿空间,要刚好1G的内存,加上其他需要的空间分配,超过了限制,我这里分配的是1200M空间,当然原理类似,这里我们没对算法做更多的优化,后面有时间再单独研究。bits = new int[2.6亿];
3.然后读取每一行数据,进行hash 计算,以及index = indexFor(int hash,int length) 确定位置。这样我们就知道每一行数据存放的位置,然后进行 bit[index] ++运算,也就是说我们就可以知道所有字符串所出现的次数,当然可能会出现hash冲突,几率很小,这种算法允许低冲突率。
4.同时我们需要建立一个数组new Entry[100],这里用于存放我们的高频词的位置,当我们遍历每一行的同时,还需要将该行字符串出现的次数保存,按出现次数保留前100.最后就是我们要的结果。
三、实现代码
/** * 工具类,处理每行信息记录的数据结构 * 未解决hash冲突,暂时允许一部分重复,需要改进 * 这是初级版本,后续在改变 * @author Michael_Ran * @param <V> */ public class CountMap<V> { // 内容数组 transient Entry<V>[] table; // 下标数组 transient int[] bits;; // 光标移动位置,实际长度 transient int size; // 实际允许长度 transient int threshold; // 下标位置 transient int position; // 容量长度 transient static int bits_capacity = 16; // 初始化长度 @SuppressWarnings("unchecked") public CountMap(int initTopNum,int initTotalLines) { int capacity = 1; // 初始化内容数组 while (capacity < initTopNum) capacity <<= 1; table = new Entry[capacity]; // 初始化下标数组 while(bits_capacity < initTotalLines) bits_capacity <<= 1; bits = new int[bits_capacity]; this.threshold = initTopNum; } // 判断是否存在 boolean contains(Object value) { for (Entry<V> e : table) { if (e != null && hash(value.hashCode()) == e.hash) return true; } return false; } // 计算hash,这里需要进行改进 int hash(int h) { h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); // ConcurrentHashMap 的算法 // h += (h << 15) ^ 0xffffcd7d; // h ^= (h >>> 10); // h += (h << 3); // h ^= (h >>> 6); // h += (h << 2) + (h << 14); // return h ^ (h >>> 16); } // 计算位置 int indexFor(int h, int length) { return h & (length - 1); } // 计算容量位置 int putBits(V value,int hash){ int index = indexFor(hash,bits_capacity); return ++ bits[index]; } // 存放 public void put(V value) { int hash = hash(value.hashCode()); int count = putBits(value,hash); // 未存满 if (size < threshold) { if (count == 1) { Entry<V> newEntry = new Entry<V>(value, hash); table[size] = newEntry; if (size > 0) { table[size - 1].after = newEntry; newEntry.before = table[size - 1]; } size++; } else { for (int i = 0; i < threshold; i++) { Entry<V> e = table[i]; // 获取最小的元素位置,直接替换 if (e.value.equals(value)) { e.count = count; e.hash = hash; return; } } } } // 已经存满,因此从个数大于1开始寻找 if (count > 1) { if(position == threshold){ position = 0; } for (int i = position; i < threshold; i++) { Entry<V> e = table[i]; if (e.count < count) { replace(e, value, count, hash); return; } } } } public void replace(Entry<V> oldEntry,V value,int count,int hash){ oldEntry.count = count; oldEntry.value = value; oldEntry.hash = hash; } // 获取对象 public Entry<V> getEntry(Object value) { for (Entry<V> e : table) { if (e != null && e.equals(value)) return e; } return null; } // 获得集合 public Entry<V>[] getEntries() { return table; } // 获得实际长度 public int size() { return size; } // 内部类 static class Entry<V> { int count, hash; V value; Entry<V> before, after; public Entry(V value, int hash) { super(); this.count = 1; this.value = value; this.hash = hash; } // 自增 public int incrementAndGet() { return count++; } @Override public String toString() { return this.value + ":" + count; } } }
import java.io.BufferedReader; import java.io.File; import java.io.FileNotFoundException; import java.io.FileReader; import java.io.IOException; public class T { // 文件路径 static final String FILEPATH = "d:/b.txt"; // 出现次数排名最多的数 static int TOP_NUM = 100; // 文件行数,只要大于总行数就行,默认2亿 static int TOTAL_LINES = 200000000; // 容器 static CountMap<String> map = new CountMap<String>(TOP_NUM, TOTAL_LINES); public static void main(String[] args) throws ClassNotFoundException, InstantiationException, IllegalAccessException { long begin = System.currentTimeMillis(); // 计算 getTopN(FILEPATH); long result = System.currentTimeMillis()-begin; System.out.println("总时间为:"+result +"毫秒"); System.out.println("-------数据结果---------"); for(int i = 0;i<map.size();i++){ System.out.println(map.getEntries()[i]); } } // 计算 public static void getTopN(String filepath){ BufferedReader bw = null; try { File f = new File(filepath); bw = new BufferedReader(new FileReader(f)); String str = null; while ((str = bw.readLine()) != null) { map.put(str); } } catch (FileNotFoundException e) { e.printStackTrace(); } catch (IOException e) { e.printStackTrace(); } finally { try { if(bw != null){ bw.close(); } } catch (IOException e) { e.printStackTrace(); } } } }
四、优化方案
1.可以看出我们仍然需要比较大的空间,我们可以改进hash算法,不用那么大的空间
2.在重复率比较高的情况下,我们大概知道不重复数据只有N 的时候,就根据N 创建空间
3.在上面都不能实现的情况,我们可以分块空间,比如我们刚才最糟糕的情况,全都不重复,需要2亿空间,实际空间接近2.7亿,浪费很大。那么我们可以我可以开辟2个空间,第一个在获得2.7亿之前,也就是小于2亿的的空间,然后计算这部分行数的排行,同理计算第二批空间的排行,这样可能出现有一部分字符串分布 不均匀和 均匀问题,导致汇总数据不对,那么我们可以对每个空间进行扩大范围查询,也就是我们可以对第一个空间查询100*10 的排行,第二个空间同理,最后再汇总 计算前100,可以避免很大部分误差。
4.上面是以空间换时间,我们可以采用链表结构,不创建那么大的数组,以链表的形式记录每行的hash值,以及count次数,然后每次遍历进行循环,这样链表节点必定小于不重复的数据。这里需要做链表节点的优化,最好用hash树的形式,节约查找的时间。同时也可以用hash范围空间 进行查找,反正得减少每次循环的次数。
小结:
1.上面方法临时写的,很多没来得及优化,大概想了一下方法,为了减少一定比较,也没直接继承hashMap,欢迎大家吐槽!
2.关于hash 分布的问题,我也考虑过寻址 以及 链表的形式 或者树的形式,算法这块不强,有熟悉的朋友可以介绍接晒。
3.对于现在数据,几亿数据,10G以内的文件,我相信这种方法 在现在计算机内存运算来说还比较快的,虽然损耗了一部分准确率。
4.大数据很多的处理,可以先采用文件分割,然后多线程(和CPU数量有关)处理,放大结果集,然后合并的也是不错的选择。
5.不好的地方请指教,有更好的方法欢迎提供,非常感谢!后续有更好的,我也会给大家分享。
6.JDK 1.8 有个特性,好像是用堆外内存来处理OOM,也就是说暂时可以借系统内存,也可以限定范围,有兴趣的朋友可以研究研究!
相关推荐
这份"大数据高频面试题"文档汇总了2020年多家机构在招聘过程中常问的大数据相关问题,旨在帮助求职者更好地准备面试,提升成功概率。 第一章主要围绕大数据项目涉及的技术进行展开,主要包括Linux和Shell、Hadoop等...
大数据技术之高频面试题8.0.2.pdf 以下是从给定文件中生成的相关知识点: Linux和Shell * Linux常用高级命令:包括文件管理、进程管理、磁盘管理、网络管理等命令。 * Shell常用工具及写过的脚本:包括sed、awk、...
Flink的checkpoint机制与Spark相比,主要区别在于Flink实现了状态的一致性保证,即能够提供精确一次(exactly-once)的状态一致性保证,而传统Spark Streaming只提供了最多一次(at-most-once)或至少一次(at-least...
面试题,技术点总结,高频问题总结,常问业务方案和场景。一份好的面试备战资料,祝你在大数据面试中脱颖而出,实现高薪就业。在职的朋友,可以当作大纲复习回顾
### 大数据技术高频面试题解析 #### 一、Linux & Shell **1.1 Linux 常用高级命令** Linux环境下,掌握一系列高级命令对于高效管理与维护系统至关重要。 - **1.1.1 Linux常用高级命令** - `awk`: 用于强大的...
根据提供的文件信息,我们可以归纳出一系列与大数据技术相关的高频面试知识点。这些知识点主要围绕着Linux、Hadoop等核心技术展开,并且深入到了各个技术的具体应用场景和技术细节。以下是对这些知识点的详细解析: ...
在大数据领域,面试通常会涉及到多个关键的技术框架和概念,包括Hadoop、Spark、HBase和Hive等。这些技术是构建大规模数据处理和分析系统的核心组件。以下将详细介绍这些技术的一些重要知识点。 **Hadoop** 是一个...
【大数据高频面试题】主要涉及Spark中的核心概念——弹性分布式数据集(RDD),它是Spark的基础数据结构。RDD具有以下特性: 1. **RDD的构成**:RDD是由一系列分区(Partition)组成的,每个分区是一个数据块,分布在...
《大数据-算法-深圳股票市场超高频数据分析》这篇论文深入探讨了在大数据和算法技术支持下,如何对深圳股票市场的高频交易数据进行分析。高频数据,尤其是超高频数据,为金融市场研究提供了前所未有的详细信息,同时...
4. **LZO压缩**:一种快速但压缩率较低的压缩算法,适用于实时性要求高的场景。 5. **Hadoop参数调优**:包括调整Block大小、副本数量、内存分配、CPU核心分配等,以适应不同的工作负载。 6. **基准测试**:使用...
标题“大数据-算法-灌木收割切削性能与刀具参数的研究”以及描述中的“大数据-算法”标签,虽然没有直接提供与大数据或算法相关的具体技术细节,但我们可以推测这可能涉及利用大数据技术和算法来优化灌木收割过程中...
在自动控制理论和电机控制领域,高频注入算法是一种非常重要的技术。近年来,随着电机技术的不断进步,对无感FOC(Field Oriented Control,即矢量控制)的需求日益增强。无感FOC主要利用电机本身无传感器的特性来...
大数据-算法-基于超高频数据的计量建模方法及市场交易行为量化研究.pdf
《大数据-算法-带跳的分数维积分过程的幂变差理论及其在金融高频数据中的应用》这篇文献探讨了大数据背景下,特别是在金融领域的高频数据分析中,如何运用算法理解和处理带有跳跃特性的分数维积分过程。分数维积分...