`
uule
  • 浏览: 6323888 次
  • 性别: Icon_minigender_1
  • 来自: 一片神奇的土地
社区版块
存档分类
最新评论

海量数据处理 - (top K问题)

 
阅读更多

CSDN-海量数据处理博客

 

top K问题

        在大规模数据处理中,经常会遇到的一类问题:在海量数据中找出出现频率最好的前k个数,或者从海量数据中找出最大的前k个数,这类问题通常被称为top K问题。例如,在搜索引擎中,统计搜索最热门的10个查询词;在歌曲库中统计下载最高的前10首歌等。

        针对top K类问题,通常比较好的方案是分治+Trie树/hash+小顶堆(就是上面提到的最小堆),即先将数据集按照Hash方法分解成多个小数据集,然后使用Trie树活着Hash统计每个小数据集中的query词频,之后用小顶堆求出每个数据集中出现频率最高的前K个数,最后在所有top K中求出最终的top K。

eg:有1亿个浮点数,如果找出期中最大的10000个?

        最容易想到的方法是将数据全部排序,然后在排序后的集合中进行查找,最快的排序算法的时间复杂度一般为O(nlogn),如快速排序。但是在32位的机器上,每个float类型占4个字节,1亿个浮点数就要占用400MB的存储空间,对于一些可用内存小于400M的计算机而言,很显然是不能一次将全部数据读入内存进行排序的。其实即使内存能够满足要求(我机器内存都是8GB),该方法也并不高效,因为题目的目的是寻找出最大的10000个数即可,而排序却是将所有的元素都排序了,做了很多的无用功

 

        第二种方法为局部淘汰法,该方法与排序方法类似,用一个容器保存前10000个数,然后将剩余的所有数字——与容器内的最小数字相比,如果所有后续的元素都比容器内的10000个数还小,那么容器内这个10000个数就是最大10000个数。如果某一后续元素比容器内最小数字大,则删掉容器内最小元素,并将该元素插入容器,最后遍历完这1亿个数,得到的结果容器中保存的数即为最终结果了。此时的时间复杂度为O(n+m^2),其中m为容器的大小,即10000。

 

        第三种方法是分治法将1亿个数据分成100份,每份100万个数据,找到每份数据中最大的10000个,最后在剩下的100*10000个数据里面找出最大的10000个。如果100万数据选择足够理想,那么可以过滤掉1亿数据里面99%的数据100万个数据里面查找最大的10000个数据的方法如下:用快速排序的方法,将数据分为2堆,如果大的那堆个数N大于10000个,继续对大堆快速排序一次分成2堆,如果大的那堆个数N大于10000个,继续对大堆快速排序一次分成2堆,如果大堆个数N小于10000个,就在小的那堆里面快速排序一次,找第10000-n大的数字;递归以上过程,就可以找到第1w大的数。参考上面的找出第1w大数字,就可以类似的方法找到前10000大数字了。此种方法需要每次的内存空间为10^6*4=4MB,一共需要101次这样的比较。

 

        第四种方法是Hash法如果这1亿个书里面有很多重复的数,先通过Hash法,把这1亿个数字去重复,这样如果重复率很高的话,会减少很大的内存用量,从而缩小运算空间,然后通过分治法或最小堆法查找最大的10000个数。

 

        第五种方法采用最小堆。首先读入前10000个数来创建大小为10000的最小堆,建堆的时间复杂度为O(mlogm)(m为数组的大小即为10000),然后遍历后续的数字,并于堆顶(最小)数字进行比较。如果比最小的数小,则继续读取后续数字;如果比堆顶数字大,则替换堆顶元素并重新调整堆为最小堆。整个过程直至1亿个数全部遍历完为止。然后按照中序遍历的方式输出当前堆中的所有10000个数字。该算法的时间复杂度为O(nmlogm),空间复杂度是10000(常数)。

 

先拿10000个数建堆,然后一次添加剩余元素,如果大于堆顶的数(10000中最小的),将这个数替换堆顶,并调整结构使之仍然是一个最小堆,这样,遍历完后,堆中的10000个数就是所需的最大的10000个。建堆时间复杂度是O(mlogm),算法的时间复杂度为O(nmlogm)(n为10亿,m为10000)。

 

        优化的方法:可以把所有10亿个数据分组存放,比如分别放在1000个文件中。这样处理就可以分别在每个文件的10^6个数据中找出最大的10000个数,合并到一起在再找出最终的结果。

 

实际运行:

        实际上,最优的解决方案应该是最符合实际设计需求的方案,在时间应用中,可能有足够大的内存,那么直接将数据扔到内存中一次性处理即可,也可能机器有多个核,这样可以采用多线程处理整个数据集。

       下面针对不容的应用场景,分析了适合相应应用场景的解决方案。

(1)单机+单核+足够大内存

        如果需要查找10亿个查询次(每个占8B)中出现频率最高的10个,考虑到每个查询词占8B,则10亿个查询次所需的内存大约是10^9 * 8B=8GB内存。如果有这么大内存,直接在内存中对查询次进行排序,顺序遍历找出10个出现频率最大的即可。这种方法简单快速,使用。然后,也可以先用HashMap求出每个词出现的频率,然后求出频率最大的10个词。

(2)单机+多核+足够大内存

        这时可以直接在内存总使用Hash方法将数据划分成n个partition,每个partition交给一个线程处理,线程的处理逻辑同(1)类似,最后一个线程将结果归并。

        该方法存在一个瓶颈会明显影响效率,即数据倾斜。每个线程的处理速度可能不同,快的线程需要等待慢的线程,最终的处理速度取决于慢的线程。而针对此问题,解决的方法是,将数据划分成c×n个partition(c>1),每个线程处理完当前partition后主动取下一个partition继续处理,知道所有数据处理完毕,最后由一个线程进行归并。

(3)单机+单核+受限内存

        这种情况下,需要将原数据文件切割成一个一个小文件,如次啊用hash(x)%M,将原文件中的数据切割成M小文件,如果小文件仍大于内存大小,继续采用Hash的方法对数据文件进行分割,知道每个小文件小于内存大小,这样每个文件可放到内存中处理。采用(1)的方法依次处理每个小文件。

(4)多机+受限内存

        这种情况,为了合理利用多台机器的资源,可将数据分发到多台机器上,每台机器采用(3)中的策略解决本地的数据。可采用hash+socket方法进行数据分发。

 

        从实际应用的角度考虑,(1)(2)(3)(4)方案并不可行,因为在大规模数据处理环境下,作业效率并不是首要考虑的问题,算法的扩展性和容错性才是首要考虑的。算法应该具有良好的扩展性,以便数据量进一步加大(随着业务的发展,数据量加大是必然的)时,在不修改算法框架的前提下,可达到近似的线性比;算法应该具有容错性,即当前某个文件处理失败后,能自动将其交给另外一个线程继续处理,而不是从头开始处理。

        top K问题很适合采用MapReduce框架解决,用户只需编写一个Map函数和两个Reduce 函数,然后提交到Hadoop(采用Mapchain和Reducechain)上即可解决该问题。具体而言,就是首先根据数据值或者把数据hash(MD5)后的值按照范围划分到不同的机器上,最好可以让数据划分后一次读入内存,这样不同的机器负责处理不同的数值范围,实际上就是Map。得到结果后,各个机器只需拿出各自出现次数最多的前N个数据,然后汇总,选出所有的数据中出现次数最多的前N个数据,这实际上就是Reduce过程。对于Map函数,采用Hash算法,将Hash值相同的数据交给同一个Reduce task;对于第一个Reduce函数,采用HashMap统计出每个词出现的频率,对于第二个Reduce 函数,统计所有Reduce task,输出数据中的top K即可。

        直接将数据均分到不同的机器上进行处理是无法得到正确的结果的。因为一个数据可能被均分到不同的机器上,而另一个则可能完全聚集到一个机器上,同时还可能存在具有相同数目的数据。

 

以下是一些经常被提及的该类问题。

(1)有10000000个记录,这些查询串的重复度比较高,如果除去重复后,不超过3000000个。一个查询串的重复度越高,说明查询它的用户越多,也就是越热门。请统计最热门的10个查询串,要求使用的内存不能超过1GB。

(2)有10个文件,每个文件1GB,每个文件的每一行存放的都是用户的query,每个文件的query都可能重复。按照query的频度排序。

(3)有一个1GB大小的文件,里面的每一行是一个词,词的大小不超过16个字节,内存限制大小是1MB。返回频数最高的100个词。

(4)提取某日访问网站次数最多的那个IP。

(5)10亿个整数找出重复次数最多的100个整数。

(6)搜索的输入信息是一个字符串,统计300万条输入信息中最热门的前10条,每次输入的一个字符串为不超过255B,内存使用只有1GB。

(7)有1000万个身份证号以及他们对应的数据,身份证号可能重复,找出出现次数最多的身份证号。

 

重复问题

        在海量数据中查找出重复出现的元素或者去除重复出现的元素也是常考的问题。针对此类问题,一般可以通过位图法实现。例如,已知某个文件内包含一些电话号码,每个号码为8位数字,统计不同号码的个数。

        本题最好的解决方法是通过使用位图法来实现。8位整数可以表示的最大十进制数值为99999999。如果每个数字对应于位图中一个bit位,那么存储8位整数大约需要99MB。因为1B=8bit,所以99Mbit折合成内存为99/8=12.375MB的内存,即可以只用12.375MB的内存表示所有的8位数电话号码的内容。

分享到:
评论

相关推荐

    论文研究-面向不确定数据流的近似ER-Topk查询处理.pdf

    面向于不确定数据流的ER-Topk查询是一个典型问题,但是处理复杂度高。提出一种近似算法来处理该查询,具有较小的空间复杂度;同时,还通过搜索策略优化来进一步提升查询处理效率。实验结果验证了所提方法的有效性和...

    海量数据查找数据问题

    在IT行业中,海量数据处理是一项重要的任务,尤其是在大数据时代,数据量的增长速度远超我们的想象。面对这样的挑战,如何高效地从海量数据中查找特定信息成为了一项关键技术。本篇文章将详细探讨如何解决"海量数据...

    十道海量数据处理面试题与十个方法大总结

    面试中,海量数据处理问题是常见的考察点,本文总结了十道海量数据处理面试题,并提供了相应的解决方案。 一、海量日志数据,提取出某日访问百度次数最多的那个 IP 这是一个典型的 hash 表应用问题,解决方案是...

    10道海量数据处理题目.pdf

    海量数据处理是信息技术领域的重要课题,特别是在大数据时代,如何高效地处理海量的数据成为了技术的关键。以下将详细讨论给定文件中提到的四个海量数据处理题目及其解决方案。 1. 提取出某日访问百度次数最多的IP ...

    面试题目-大数据量海量数据处理.pdf

    这些面试题目聚焦于大数据量和海量数据的处理,涵盖了各种挑战,包括数据过滤、去重、排序、频率统计和热门元素提取。以下是对这些题目的详细解析和相关知识点: 1. **URL共现问题**:这是一个典型的集合交集问题,...

    行业分类-设备装置-一种实时移动空间关键字近似Top-k查询方法.zip

    总的来说,这种实时移动空间关键字近似Top-k查询方法是现代大数据处理技术的重要组成部分,它解决了海量动态数据环境下如何高效、准确地获取关键信息的问题。通过对这种方法的理解和应用,我们可以更好地管理和利用...

    海量数据处理

    【海量数据处理】是IT行业中面对大数据场景时的关键技术,主要涉及如何高效地处理和分析大量数据。在面试中,可能会遇到多种问题,这些问题通常测试应聘者的数据处理能力、算法理解以及对数据结构的掌握。 1. **...

    基于MapReduce方法统计服务器日志topk数据.zip

    这个项目名为"TopK-Log-Map-Reduce-master",它揭示了如何利用分布式计算技术处理海量日志数据,找出出现频率最高的前K个元素,这在诸如网站分析、用户行为追踪或异常检测等场景中非常有用。 MapReduce是一种编程...

    C++算法之海量数据处理方法的总结分析

    本文将对几种常见的海量数据处理技术进行深入分析,包括Bloom Filtering、Hash表技术、堆技术和双层桶设计。 1. **Bloom Filtering**: Bloom Filtering是一种空间效率极高的概率型数据结构,用于测试一个元素是否...

    K.Top论坛资料

    这份“K.Top论坛资料”是这个活跃社区的精华汇总,包含了海量的编程知识和实践经验,对于想要深入理解和提升C++Builder及Delphi开发技能的人来说,无疑是一份宝贵的参考资料。 首先,我们要关注的是这份资料的核心...

    大规模数据处理面试题

    2. **Top K问题**:这是大数据处理中常见的问题,要求找出数据集中出现频率最高的K个元素。一种常见解决方案是结合哈希表和堆(最小堆),先用哈希表进行初步排序,然后用堆找出前K个元素。在统计最热门的10个查询串...

    第七章-《大数据导论》大数据处理平台.pdf

    缓解数据访问瓶颈问题,提高执行效率 大数据处理平台技术架构 数据采集层 数据处理层 … 批量采集 网络爬虫 流采集 分布式文 件系统 关系 数据库 NoSQL 数据库 数据存储层 机器学习 数据挖掘 搜索引擎 批量处理引擎 ...

    提取出某日访问网站次数最多的那K个IP

    标题 "提取出某日访问网站次数最多的那K个IP" 涉及的是数据分析和数据处理方面的技术,主要目标是从海量的日志数据中找出在特定日期内访问网站频率最高的K个IP地址。在这个过程中,我们可以使用多种编程语言和工具来...

    6月机器学习班第6课--海量高维数据与最近邻查找.pdf

    其他算法如【K-Means Tree】和【K-D Tree】也是解决大规模数据集近似最近邻问题的有效方法。 在实际应用中,比如搜索引擎判断网页内容的相似性、论文查重、推荐系统、图像检索和指纹匹配等问题,都会用到ANN算法。...

    基于中文文本情绪分析自动切换参考音频的 GPT-SoVITS 推理

    GPT模型的核心是一个多层Transformer解码器结构,它通过在海量的文本数据上进行预训练来学习语言的规律。这种预训练方式使得GPT模型能够捕捉到丰富的上下文信息,并生成流畅、自然的文本。 GPT模型的训练过程可以...

    Sketch算法所用数据

    在大数据分析领域,Sketch算法是一种高效且节省存储空间的数据摘要技术,它被广泛应用于处理海量数据,尤其是在流式计算、实时分析以及数据估计算法中。这个名为"Sketch算法所用数据"的压缩包文件包含了Sketch算法所...

    streaming_algorithms:各种流算法的高性能实现,包括Count-min草图,Top k,HyperLogLog,储层采样

    相比于其他方法,HyperLogLog在处理海量数据时具有较低的内存开销和较高的计算效率。 4. 储层采样(Reservoir Sampling): 储层采样是一种在未知大小的数据流中进行随机抽样的算法。当数据流到达时,算法会以一定...

    基于项目k临近的协同过滤的Hadoop实现,数据集采用MovieLens.zip

    本篇将探讨如何在分布式计算框架Hadoop上,利用项目K临近(K-Nearest Neighbors, KNN)的协同过滤策略来处理大规模的用户行为数据,以MovieLens数据集为例进行实战解析。 协同过滤主要分为用户基础(User-Based)和...

    中文LLaMA模型和指令精调的Alpaca大模型:中文数据进行二次预训练,进一步提升了中文基础语义理解能力

    因此,研究人员对LLaMA模型进行了专门针对中文的二次预训练,使用海量的中文文本数据,使模型能更好地理解和生成中文内容。 指令精调的Alpaca大模型,则是在LLaMA模型基础上,通过特定的指令训练进一步优化。这种...

    互联网大厂面经/面试 智力题整理 后台开发 C++ 春招 秋招 社招 笔记整理 大厂面试整理

    - **Top K问题**:如找出现频率最高的100个词,可以通过哈希表或Trie树统计每个小文件中的词频,然后用最小堆选取最高频的100个。 - **URL去重**:面对两个大文件中的共同URL,可以先按哈希函数将URL分散到多个小...

Global site tag (gtag.js) - Google Analytics