`

5 亿整数的大文件,怎么排?

 
阅读更多

问题

 

给你1个文件bigdata,大小4663M,5亿个数,文件中的数据随机,如下一行一个整数:

 

6196302

3557681

6121580

2039345

2095006

1746773

7934312

2016371

7123302

8790171

2966901

...

7005375

 

现在要对这个文件进行排序,怎么搞?

 

内部排序

 

先尝试内排,选2种排序方式:

 

3路快排:

 

private final int cutoff = 8;

 

public <T> void perform(Comparable<T>[] a) {

        perform(a,0,a.length - 1);

    }

 

    private <T> int median3(Comparable<T>[] a,int x,int y,int z) {

        if(lessThan(a[x],a[y])) {

            if(lessThan(a[y],a[z])) {

                return y;

            }

            else if(lessThan(a[x],a[z])) {

                return z;

            }else {

                return x;

            }

        }else {

            if(lessThan(a[z],a[y])){

                return y;

            }else if(lessThan(a[z],a[x])) {

                return z;

            }else {

                return x;

            }

        }

    }

 

    private <T> void perform(Comparable<T>[] a,int low,int high) {

        int n = high - low + 1;

        //当序列非常小,用插入排序

        if(n <= cutoff) {

            InsertionSort insertionSort = SortFactory.createInsertionSort();

            insertionSort.perform(a,low,high);

            //当序列中小时,使用median3

        }else if(n <= 100) {

            int m = median3(a,low,low + (n >>> 1),high);

            exchange(a,m,low);

            //当序列比较大时,使用ninther

        }else {

            int gap = n >>> 3;

            int m = low + (n >>> 1);

            int m1 = median3(a,low,low + gap,low + (gap << 1));

            int m2 = median3(a,m - gap,m,m + gap);

            int m3 = median3(a,high - (gap << 1),high - gap,high);

            int ninther = median3(a,m1,m2,m3);

            exchange(a,ninther,low);

        }

 

        if(high <= low)

            return;

        //lessThan

        int lt = low;

        //greaterThan

        int gt = high;

        //中心点

        Comparable<T> pivot =  a[low];

        int i = low + 1;

 

        /*

        * 不变式:

        *   a[low..lt-1] 小于pivot -> 前部(first)

        *   a[lt..i-1] 等于 pivot -> 中部(middle)

        *   a[gt+1..n-1] 大于 pivot -> 后部(final)

        *

        *   a[i..gt] 待考察区域

        */

 

        while (i <= gt) {

            if(lessThan(a[i],pivot)) {

                //i-> ,lt ->

                exchange(a,lt++,i++);

            }else if(lessThan(pivot,a[i])) {

                exchange(a,i,gt--);

            }else{

                i++;

            }

        }

 

        // a[low..lt-1] < v = a[lt..gt] < a[gt+1..high].

        perform(a,low,lt - 1);

        perform(a,gt + 1,high);

    }

 

归并排序:

 

/**

 * 小于等于这个值的时候,交给插入排序

 */

private final int cutoff = 8;

 

/**

 * 对给定的元素序列进行排序

 *

 * @param a 给定元素序列

 */

@Override

public <T> void perform(Comparable<T>[] a) {

    Comparable<T>[] b = a.clone();

    perform(b, a, 0, a.length - 1);

}

 

private <T> void perform(Comparable<T>[] src,Comparable<T>[] dest,int low,int high) {

    if(low >= high)

        return;

 

    //小于等于cutoff的时候,交给插入排序

    if(high - low <= cutoff) {

        SortFactory.createInsertionSort().perform(dest,low,high);

        return;

    }

 

    int mid = low + ((high - low) >>> 1);

    perform(dest,src,low,mid);

    perform(dest,src,mid + 1,high);

 

    //考虑局部有序 src[mid] <= src[mid+1]

    if(lessThanOrEqual(src[mid],src[mid+1])) {

        System.arraycopy(src,low,dest,low,high - low + 1);

    }

 

    //src[low .. mid] + src[mid+1 .. high] -> dest[low .. high]

    merge(src,dest,low,mid,high);

}

 

private <T> void merge(Comparable<T>[] src,Comparable<T>[] dest,int low,int mid,int high) {

 

    for(int i = low,v = low,w = mid + 1; i <= high; i++) {

        if(w > high || v <= mid && lessThanOrEqual(src[v],src[w])) {

            dest[i] = src[v++];

        }else {

            dest[i] = src[w++];

        }

    }

}

 

数据太多,递归太深 ->栈溢出?加大Xss?

数据太多,数组太长 -> OOM?加大Xmx?

 

耐心不足,没跑出来.而且要将这么大的文件读入内存,在堆中维护这么大个数据量,还有内排中不断的拷贝,对栈和堆都是很大的压力,不具备通用性。

 

sort命令来跑

 

sort -n bigdata -o bigdata.sorted

 

跑了多久呢?24分钟.

 

为什么这么慢?

 

粗略的看下我们的资源:

 

  1. 内存

    jvm-heap/stack,native-heap/stack,page-cache,block-buffer

     

  2. 外存

    swap + 磁盘

 

数据量很大,函数调用很多,系统调用很多,内核/用户缓冲区拷贝很多,脏页回写很多,io-wait很高,io很繁忙,堆栈数据不断交换至swap,线程切换很多,每个环节的锁也很多.

 

总之,内存吃紧,问磁盘要空间,脏数据持久化过多导致cache频繁失效,引发大量回写,回写线程高,导致cpu大量时间用于上下文切换,一切,都很糟糕,所以24分钟不细看了,无法忍受.

 

位图法

 

private BitSet bits;

 

public void perform(

        String largeFileName,

        int total,

        String destLargeFileName,

        Castor<Integer> castor,

        int readerBufferSize,

        int writerBufferSize,

        boolean asc) throws IOException {

 

    System.out.println("BitmapSort Started.");

    long start = System.currentTimeMillis();

    bits = new BitSet(total);

    InputPart<Integer> largeIn = PartFactory.createCharBufferedInputPart(largeFileName, readerBufferSize);

    OutputPart<Integer> largeOut = PartFactory.createCharBufferedOutputPart(destLargeFileName, writerBufferSize);

    largeOut.delete();

 

    Integer data;

    int off = 0;

    try {

        while (true) {

            data = largeIn.read();

            if (data == null)

                break;

            int v = data;

            set(v);

            off++;

        }

        largeIn.close();

        int size = bits.size();

        System.out.println(String.format("lines : %d ,bits : %d", off, size));

 

        if(asc) {

            for (int i = 0; i < size; i++) {

                if (get(i)) {

                    largeOut.write(i);

                }

            }

        }else {

            for (int i = size - 1; i >= 0; i--) {

                if (get(i)) {

                    largeOut.write(i);

                }

            }

        }

 

        largeOut.close();

        long stop = System.currentTimeMillis();

        long elapsed = stop - start;

        System.out.println(String.format("BitmapSort Completed.elapsed : %dms",elapsed));

    }finally {

        largeIn.close();

        largeOut.close();

    }

}

 

private void set(int i) {

    bits.set(i);

}

 

private boolean get(int v) {

    return bits.get(v);

}

 

nice!跑了190秒,3分来钟.

 

以核心内存4663M/32大小的空间跑出这么个结果,而且大量时间在用于I/O,不错.

 

问题是,如果这个时候突然内存条坏了1、2根,或者只有极少的内存空间怎么搞?

 

外部排序

 

该外部排序上场了.

外部排序干嘛的?

 

内存极少的情况下,利用分治策略,利用外存保存中间结果,再用多路归并来排序;

 

map-reduce的嫡系.

 


 

1.分

 

内存中维护一个极小的核心缓冲区memBuffer,将大文件bigdata按行读入,搜集到memBuffer满或者大文件读完时,对memBuffer中的数据调用内排进行排序,排序后将有序结果写入磁盘文件bigdata.xxx.part.sorted.

 

循环利用memBuffer直到大文件处理完毕,得到n个有序的磁盘文件:

 

 

2.合

 

现在有了n个有序的小文件,怎么合并成1个有序的大文件?

把所有小文件读入内存,然后内排?

(⊙o⊙)…

no!

 

利用如下原理进行归并排序:

 


 

我们举个简单的例子:

 

文件1:3,6,9

文件2:2,4,8

文件3:1,5,7

 

第一回合:

文件1的最小值:3 , 排在文件1的第1行

文件2的最小值:2,排在文件2的第1行

文件3的最小值:1,排在文件3的第1行

那么,这3个文件中的最小值是:min(1,2,3) = 1

也就是说,最终大文件的当前最小值,是文件1、2、3的当前最小值的最小值,绕么?

上面拿出了最小值1,写入大文件.

 

第二回合:

文件1的最小值:3 , 排在文件1的第1行

文件2的最小值:2,排在文件2的第1行

文件3的最小值:5,排在文件3的第2行

那么,这3个文件中的最小值是:min(5,2,3) = 2

将2写入大文件.

 

也就是说,最小值属于哪个文件,那么就从哪个文件当中取下一行数据.(因为小文件内部有序,下一行数据代表了它当前的最小值)

 

最终的时间,跑了771秒,13分钟左右.

 

less bigdata.sorted.text

...

9999966

9999967

9999968

9999969

9999970

9999971

9999972

9999973

9999974

9999975

9999976

9999977

9999978

...

分享到:
评论

相关推荐

    Java 5亿整数大文件怎么排序

    在本文中,我们将讨论如何对5亿整数大文件进行排序。这个问题的解决方案对大家的学习或者工作具有一定的参考学习价值。 首先,让我们来了解问题的背景。我们有一个大小4663M的大文件,包含5亿个随机整数,每行一个...

    40亿个非负整数中找到未出现的数

    32位无符号整数的范围是0 ~ 4 294 967 295,现在有一个正好包含40亿个无符号整数的文件,所以在整个范围中必然有未出现过的数。怎么找到所有未出现过的数? 要求: 可以使用最多1GB的内存。 进阶: 内存限制10MB,...

    删数问题给定n 位正整数a,去掉其中任意k≤n 个数字后,剩下的数字按原次序排列组成一个

    删数问题 Description 给定n 位正整数a,去掉其中...文件的第1 行是1 个正整数a。第2 行是正整数k。 Output 程序运行结束时,将计算出的最小数输出到文件output.txt中。 Sample Input 178543 4 Sample Output 13

    读取文件数字并排序最后输出另一个文件

    读取一个文件中的整数,并将它们从小到大排序,最后输出排序后到另一个文件中

    面试 大数据 算法解析

    1.提取出某日访问百度次数最多的那个IP 2.有一个1G大小的一个文件,里面每一行是...5.腾讯面试题:给40亿个不重复的unsigned int的整数,没排过序的,然后再给一个数,如何快速判断这个数是否在那40亿个数当中? ......

    zhengshuguihua.rar_zhengshuguihua_整数规划_整数规划问题_最优解

    在这个特定的案例中,“zhengshuguihua.rar”是一个压缩包文件,包含与整数规划相关的代码实现,如“DividePlane.m”,“IntProgFZ.m”和“ZeroOneprog.m”。 1. **整数规划问题**: 整数规划问题通常被定义为一个...

    整数数组的全排算法,很经典!!!

    压缩包中的"double"文件可能是实现全排列算法的代码示例,可能是用某种编程语言(如C++、Python、Java等)编写的。通过阅读和理解这段代码,我们可以更深入地掌握全排列的实现细节,并可能从中学习到如何优化内存...

    2第二章 整数规划.zip

    5. **`GUROBI`库的使用**:如果文件涉及高级内容,可能会讲解如何安装和配置`GUROBI`,以及如何通过Python API创建和解决整数规划模型。`GUROBI`提供了一套高级功能,如自定义剪枝策略、回调函数和多线程求解。 6. ...

    文件排序(XDOJ结构体版本).cpp

    当修改日期相同时,大的文件排在前面。 输入说明:第一行为一个数字 n,n 表示共有 n 个待排序的文件, 1≤ n≤ 100。 接下来是 n 行,每行包含一个文件的修改日期和文件大小,这两个字段之间用空格分隔。 文件...

    生产线自动排产算法

    例如,文件"ConsoleApp1"可能是这个自动排产算法的示例代码或者原型应用,它可能包含数据输入、模型计算、任务分配等功能模块。开发者可以通过调试和修改这个程序,适应具体企业的生产环境,实现个性化的自动排产...

    Call-and-order-one.zip_调用txt文件

    调用与排序 1、编一个程序从一个文本文件source.txt中读入若干整数,用选择法将这些数据排成升序,将排序后的结果写入另一个文件文本文件target.txt中。注意两个文件均在d盘的data文件夹中。 在程序运行前,先准备好...

    染整生产优化排缸模型研究

    染整生产优化排缸模型研究的知识点主要包括: 1. 染整生产与排缸模型: 染整行业主要涉及的是印染生产,这个过程通常采用间歇染色生产...以上是基于提供的文件内容对染整生产优化排缸模型研究中相关知识点的详细解释。

    使用C实现千万整数的排序问题

    总之,C语言实现的快速排序适用于处理大规模整数排序问题,通过巧妙的算法设计和适当的优化,可以在保证效率的同时处理千万级别的数据。通过分析和理解"QuickSort"中的代码,我们可以深入学习快速排序的实现细节及其...

    FAT32文件系统实例讲解--原创-很好理解的

    FAT32文件系统是Windows操作系统中使用的一种文件系统格式,它是在FAT12和FAT16的基础上发展而来的。FAT32文件系统的命名来源于其使用了32位的文件分配表(File Allocation Table,简称FAT),用于描述文件系统内...

    顺序查找,折半查找,二叉排序树,哈希表

    在上面的代码中,我们实现了一个哈希表的查找函数`SearchHash`,它接受一个哈希表`H`、一个关键字`K`和两个整数`p`和`c`作为输入,返回该关键字在表中的位置。如果找不到,则返回-1。 这四种查找算法都有其优缺点。...

    javascript入门笔记

    严格区分大小写 :name 和 Name 所有的语句都是以 ; 来表示结束 所有的标点符号都是英文的 ; 和 ; . 和 。 : 和 : " 和 “ ' 和 ‘ () 和 () [] 和 【】 {} 和 {} 2、注释 单行注释: // 多行注释:...

    参考资料-生产计划自动排程.zip

    生产计划自动排程系统(Production Planning and Scheduling,PPS)通常使用先进的算法来解决复杂的调度问题,如遗传算法、模拟退火、整数规划等。这些算法能够处理大量的数据,包括订单信息、库存状态、生产能力、...

    有关约瑟夫环(持有密码版和经典版)C++信息学竞赛13个文件

    约瑟夫环问题的一种描述是:编号为 1,2,…,n 的 n 个人按顺时针方向围坐一圈,每人持有一个密码(正整数)。一开始任选一个正整数作为报数上限值 m,从第一个人开始按顺时针方向自 1 开始顺序报数,报到 m 时停止...

    个人写的几个排序算法

    在提供的文件中,"sort2.cpp"可能包含了这些排序算法的实现,"main.cpp"可能是测试和调用这些排序算法的主程序,而"sort2.h"则可能是包含函数声明的头文件,方便在其他文件中调用这些排序算法。 了解和掌握这些排序...

    spimi算法的c++实现倒排索引器并gamma编码压缩

    `Gamma`编码是一种无损的数据压缩方法,特别适合处理大整数。它将一个非负整数`n`表示为`1γ(n)`, 其中`γ(n)`是`n - 1`的二进制表示去掉最高位后的位数。例如,对于整数25,其`Gamma`编码为`1101`(因为24的二进制...

Global site tag (gtag.js) - Google Analytics