- 浏览: 723773 次
- 性别:
- 来自: 北京
最新评论
-
wxweven:
Surmounting 写道既然 Java 的跳表那么少,我决 ...
SkipList 跳表 -
暮雪云然:
写的不错,很透彻
Java静态内部类 -
bzhao:
好,赞扬!
Linux信号详解 -
jacktao219:
赞一个~! ,现在正在看redis 所以接触到跳表
SkipList 跳表 -
is_leon:
vote--后还要判断是否为0吧,如果为0则废掉重新置位can ...
现在有一个整数数组,已知一个数出现的次数超过了一半,请用O(n)的复杂度的算法找出这个数
一 外部排序的基本思路
假设有一个72KB的文件,其中存储了18K个整数,磁盘中物理块的大小为4KB,将文件分成18组,每组刚好4KB。
首先通过18次内部排序,把18组数据排好序,得到初始的18个归并段R1~R18,每个归并段有1024个整数。
然后对这18个归并段使用4路平衡归并排序:
第1次归并:产生5个归并段
R11 R12 R13 R14 R15
其中
R11是由{R1,R2,R3,R4}中的数据合并而来
R12是由{R5,R6,R7,R8}中的数据合并而来
R13是由{R9,R10,R11,R12}中的数据合并而来
R14是由{R13,R14,R15,R16}中的数据合并而来
R15是由{R17,R18}中的数据合并而来
把这5个归并段的数据写入5个文件:
foo_1.dat foo_2.dat foo_3.dat foo_4.dat foo_5.dat
第2次归并:从第1次归并产生的5个文件中读取数据,合并,产生2个归并段
R21 R22
其中R21是由{R11,R12,R13,R14}中的数据合并而来
其中R22是由{R15}中的数据合并而来
把这2个归并段写入2个文件
bar_1.dat bar_2.dat
第3次归并:从第2次归并产生的2个文件中读取数据,合并,产生1个归并段
R31
R31是由{R21,R22}中的数据合并而来
把这个文件写入1个文件
foo_1.dat
此即为最终排序好的文件。
二 使用败者树加快合并排序
外部排序最耗时间的操作时磁盘读写,对于有m个初始归并段,k路平衡的归并排序,磁盘读写次数为
|logkm|,可见增大k的值可以减少磁盘读写的次数,但增大k的值也会带来负面效应,即进行k路合并
的时候会增加算法复杂度,来看一个例子。
把n个整数分成k组,每组整数都已排序好,现在要把k组数据合并成1组排好序的整数,求算法复杂度
u1: xxxxxxxx
u2: xxxxxxxx
u3: xxxxxxxx
.......
uk: xxxxxxxx
算法的步骤是:每次从k个组中的首元素中选一个最小的数,加入到新组,这样每次都要比较k-1次,故
算法复杂度为O((n-1)*(k-1)),而如果使用败者树,可以在O(logk)的复杂度下得到最小的数,算法复杂
度将为O((n-1)*logk), 对于外部排序这种数据量超大的排序来说,这是一个不小的提高。
关于败者树的创建和调整,可以参考清华大学《数据结构-C语言版》
三 产生二进制测试数据
打开Linux终端,输入命令
dd if=/dev/urandom of=random.dat bs=1M count=512
这样在当前目录下产生一个512M大的二进制文件,文件内的数据是随机的,读取文件,每4个字节
看成1个整数,相当于得到128M个随机整数。
四 程序实现
#include <assert.h> #include <fcntl.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <sys/time.h> #include <sys/types.h> #include <sys/stat.h> #define MAX_INT ~(1<<31) #define MIN_INT 1<<31 //#define DEBUG #ifdef DEBUG #define debug(...) debug( __VA_ARGS__) #else #define debug(...) #endif #define MAX_WAYS 100 typedef struct run_t { int *buf; /* 输入缓冲区 */ int length; /* 缓冲区当前有多少个数 */ int offset; /* 缓冲区读到了文件的哪个位置 */ int idx; /* 缓冲区的指针 */ } run_t; static unsigned int K; /* K路合并 */ static unsigned int BUF_PAGES; /* 缓冲区有多少个page */ static unsigned int PAGE_SIZE; /* page的大小 */ static unsigned int BUF_SIZE; /* 缓冲区的大小, BUF_SIZE = BUF_PAGES*PAGE_SIZE */ static int *buffer; /* 输出缓冲区 */ static char input_prefix[] = "foo_"; static char output_prefix[] = "bar_"; static int ls[MAX_WAYS]; /* loser tree */ void swap(int *p, int *q); int partition(int *a, int s, int t); void quick_sort(int *a, int s, int t); void adjust(run_t ** runs, int n, int s); void create_loser_tree(run_t **runs, int n); long get_time_usecs(); void k_merge(run_t** runs, char* input_prefix, int num_runs, int base, int n_merge); void usage(); int main(int argc, char **argv) { char filename[100]; unsigned int data_size; unsigned int num_runs; /* 这轮迭代时有多少个归并段 */ unsigned int num_merges; /* 这轮迭代后产生多少个归并段 num_merges = num_runs/K */ unsigned int run_length; /* 归并段的长度,指数级增长 */ unsigned int num_runs_in_merge; /* 一般每个merge由K个runs合并而来,但最后一个merge可能少于K个runs */ int fd, rv, i, j, bytes; struct stat sbuf; if (argc != 3) { usage(); return 0; } long start_usecs = get_time_usecs(); strcpy(filename, argv[1]); fd = open(filename, O_RDONLY); if (fd < 0) { printf("can't open file %s\n", filename); exit(0); } rv = fstat(fd, &sbuf); data_size = sbuf.st_size; K = atoi(argv[2]); PAGE_SIZE = 4096; /* page = 4KB */ BUF_PAGES = 32; BUF_SIZE = PAGE_SIZE*BUF_PAGES; num_runs = data_size / PAGE_SIZE; /* 初始时的归并段数量,每个归并段有4096 byte, 即1024个整数 */ buffer = (int *)malloc(BUF_SIZE); run_length = 1; run_t **runs = (run_t **)malloc(sizeof(run_t *)*(K+1)); for (i = 0; i < K; i++) { runs[i] = (run_t *)malloc(sizeof(run_t)); runs[i]->buf = (int *)calloc(1, BUF_SIZE+4); } while (num_runs > 1) { num_merges = num_runs / K; int left_runs = num_runs % K; if(left_runs > 0) num_merges++; for (i = 0; i < num_merges; i++) { num_runs_in_merge = K; if ((i+1) == num_merges && left_runs > 0) { num_runs_in_merge = left_runs; } int base = 0; printf("Merge %d of %d,%d ways\n", i, num_merges, num_runs_in_merge); for (j = 0; j < num_runs_in_merge; j++) { if (run_length == 1) { base = 1; bytes = read(fd, runs[j]->buf, PAGE_SIZE); runs[j]->length = bytes/sizeof(int); quick_sort(runs[j]->buf, 0, runs[j]->length-1); } else { snprintf(filename, 20, "%s%d.dat", input_prefix, i*K+j); int infd = open(filename, O_RDONLY); bytes = read(infd, runs[j]->buf, BUF_SIZE); runs[j]->length = bytes/sizeof(int); close(infd); } runs[j]->idx = 0; runs[j]->offset = bytes; } k_merge(runs, input_prefix, num_runs_in_merge, base, i); } strcpy(filename, output_prefix); strcpy(output_prefix, input_prefix); strcpy(input_prefix, filename); run_length *= K; num_runs = num_merges; } for (i = 0; i < K; i++) { free(runs[i]->buf); free(runs[i]); } free(runs); free(buffer); close(fd); long end_usecs = get_time_usecs(); double secs = (double)(end_usecs - start_usecs) / (double)1000000; printf("Sorting took %.02f seconds.\n", secs); printf("sorting result saved in %s%d.dat.\n", input_prefix, 0); return 0; } void k_merge(run_t** runs, char* input_prefix, int num_runs, int base, int n_merge) { int bp, bytes, output_fd; int live_runs = num_runs; run_t *mr; char filename[20]; bp = 0; create_loser_tree(runs, num_runs); snprintf(filename, 100, "%s%d.dat", output_prefix, n_merge); output_fd = open(filename, O_CREAT|O_WRONLY|O_TRUNC, S_IRWXU|S_IRWXG); if (output_fd < 0) { printf("create file %s fail\n", filename); exit(0); } while (live_runs > 0) { mr = runs[ls[0]]; buffer[bp++] = mr->buf[mr->idx++]; // 输出缓冲区已满 if (bp*4 == BUF_SIZE) { bytes = write(output_fd, buffer, BUF_SIZE); bp = 0; } // mr的输入缓冲区用完 if (mr->idx == mr->length) { snprintf(filename, 20, "%s%d.dat", input_prefix, ls[0]+n_merge*K); if (base) { mr->buf[mr->idx] = MAX_INT; live_runs--; } else { int fd = open(filename, O_RDONLY); lseek(fd, mr->offset, SEEK_SET); bytes = read(fd, mr->buf, BUF_SIZE); close(fd); if (bytes == 0) { mr->buf[mr->idx] = MAX_INT; live_runs--; } else { mr->length = bytes/sizeof(int); mr->offset += bytes; mr->idx = 0; } } } adjust(runs, num_runs, ls[0]); } bytes = write(output_fd, buffer, bp*4); if (bytes != bp*4) { printf("!!!!!! Write Error !!!!!!!!!\n"); exit(0); } close(output_fd); } long get_time_usecs() { struct timeval time; struct timezone tz; memset(&tz, '\0', sizeof(struct timezone)); gettimeofday(&time, &tz); long usecs = time.tv_sec*1000000 + time.tv_usec; return usecs; } void swap(int *p, int *q) { int tmp; tmp = *p; *p = *q; *q = tmp; } int partition(int *a, int s, int t) { int i, j; /* i用来遍历a[s]...a[t-1], j指向大于x部分的第一个元素 */ for (i = j = s; i < t; i++) { if (a[i] < a[t]) { swap(a+i, a+j); j++; } } swap(a+j, a+t); return j; } void quick_sort(int *a, int s, int t) { int p; if (s < t) { p = partition(a, s, t); quick_sort(a, s, p-1); quick_sort(a, p+1, t); } } void adjust(run_t ** runs, int n, int s) { int t, tmp; t = (s+n)/2; while (t > 0) { if (s == -1) { break; } if (ls[t] == -1 || runs[s]->buf[runs[s]->idx] > runs[ls[t]]->buf[runs[ls[t]]->idx]) { tmp = s; s = ls[t]; ls[t] = tmp; } t >>= 1; } ls[0] = s; } void create_loser_tree(run_t **runs, int n) { int i; for (i = 0; i < n; i++) { ls[i] = -1; } for (i = n-1; i >= 0; i--) { adjust(runs, n, i); } } void usage() { printf("sort <filename> <K-ways>\n"); printf("\tfilename: filename of file to be sorted\n"); printf("\tK-ways: how many ways to merge\n"); exit(1); }
五 编译运行
gcc sort.c -o sort -g
./sort random.dat 64
以64路平衡归并对random.dat内的数据进行外部排序。在I5处理器,4G内存的硬件环境下,实验结果如下
文件大小 耗时
128M 14.72 秒
256M 30.89 秒
512M 71.65 秒
1G 169.18秒
六 读取二进制文件,查看排序结
#include <assert.h> #include <fcntl.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <unistd.h> #include <sys/time.h> #include <sys/types.h> #include <sys/stat.h> int main(int argc, char **argv) { char *filename = argv[1]; int *buffer = (int *)malloc(1<<20); struct stat sbuf; int rv, data_size, i, bytes, fd; fd = open(filename, O_RDONLY); if (fd < 0) { printf("%s not found!\n", filename); exit(0); } rv = fstat(fd, &sbuf); data_size = sbuf.st_size; bytes = read(fd, buffer, data_size); for (i = 0; i < bytes/4; i++) { printf("%d ", buffer[i]); if ((i+1) % 10 == 0) { printf("\n"); } } printf("\n"); close(fd); free(buffer); return 0; }
发表评论
-
Paxos算法
2012-04-18 10:59 2659分布式系统的核心问题是数据一致性,解决一致性有很多算法,而 P ... -
编程之美3.3 计算字符串的相似度
2012-03-13 23:26 33问题描述 定义一套操作方法, 把两个不相同的字符串变得相同, ... -
编程之美3.1 字符串移位包含的问题
2012-03-12 23:26 3326题目 给定两个字符串 s ... -
SkipList 跳表
2011-10-09 01:08 39760为什么选择跳表 目前经常使用的平衡数据结构有:B树,红黑树, ... -
(转)一致性哈希算法及其在分布式系统中的应用
2011-09-29 19:02 2316原文地址: http://www.cnb ... -
算法导论习题 5.1 -2
2011-09-29 09:23 2001描述random(a, b)过程的一种实现,它只调用rando ... -
现在有一个整数数组,已知一个数出现的次数超过了一半,请用O(n)的复杂度的算法找出这个数
2011-05-05 19:43 6234现在有一个整数数组,已知一个数出现的次数超过了一半,请用O(n ... -
从海量数据中找中位数(c语言实现)
2011-05-05 12:49 5039题目:5亿个int,从中找出第k大的数 算法:之后补上 ... -
寻找最大的K个数 (C语言实现)
2011-05-04 16:31 5342题目:100亿个整数,求最大的1万个数,并说出算法的时间复杂度 ... -
kmp算法的理解与实现
2011-04-30 21:29 25494KMP算法曾被我戏称为看毛片算法,当时笑喷...... ... -
实现两个整数的除法,不能用除号和乘号
2011-04-22 15:17 3635对于两个整数a和b, 求a/b,可以从1开始枚举结果resul ... -
最大公共子字符串(Longest Common Substring)
2011-04-22 13:33 3403Longest Common Substring和Longes ... -
poj 1458 最长公共子串(Longest Common Subsequence)
2011-04-22 10:45 2566LCS问题: 给定序列 X = <x1,x2,... ... -
归并排序
2011-04-21 21:51 1170#include <stdio.h> #i ... -
快速排序 顺序统计量 数组分割
2011-04-21 19:28 1362#include <stdio.h> #in ... -
位运算集锦
2011-04-21 17:15 2106文中2'k代表2的k次方 1 除以2的k次幂可以用位运 ... -
最长递增子序列
2011-04-21 14:45 1183设L = <a1,a2,...an>是n个不同的实 ... -
poj 2774 后缀数组
2011-03-21 17:28 1784#include <stdio.h> # ... -
poj 2823 线段树
2011-03-17 18:49 1617赤裸裸的线段树,数据量很大,加了IO优化函数。 #in ... -
poj 3368 RMQ 线段树 离散化
2011-03-17 17:00 2731一 题意:给定递增序列 ...
相关推荐
- 在多路平衡归并排序中,数据被划分为多个段,每个段分别在内存中进行排序,然后进行多路归并。 - 归并路数 k 决定了每次归并的段数,从而影响总的读写次数 d。k 越大,d 可能越小,但同时也可能增加内部归并的...
外部排序通常分为两个主要步骤:多路归并和排序段构建。 **1. 多路归并(K-Way Merge)** 多路归并是外部排序的核心部分,它将多个已排序的小文件(或内存中的有序子序列)合并成一个大的有序文件。这个过程中使用...
2. 多路归并:这是外排序的关键步骤,通过对这些已经排序的初始归并段进行多次合并,逐步扩大有序段,最终在外存上形成一个完整的有序文件。 磁盘排序是外排序的一个具体实例,因为磁盘是一种直接存取设备。在磁盘...
5. **败者树多路归并**:败者树是一种用于优化多路归并排序的数据结构,它可以高效地找到最小的元素。在这个场景中,多个有序的小文件通过败者树进行合并,形成一个大的有序文件。 6. **性能评估**:在Intel Core ...
对于实际编程应用,掌握快速排序的递归和非递归实现、归并排序的推拉法以及如何利用败者树进行多路平衡归并都是十分有价值的技能。同时,了解不同排序算法的优缺点,能根据数据特性选择合适的排序方法,对于提高程序...
- **作用**:在多路归并过程中,败者树被用来从各个归并段中选出当前最小值,以便进行下一步的归并操作。 - **结点数量**:用于`k`路归并的败者树共有`2k-1`个结点,包括`k`个叶子结点和`k-1`个非叶结点。 #### 多...
多路归并排序是将多个有序表合并成一个有序表。 外排序通常是由于待排序的文件数据量过大,不能完全加载到内存中,需要借助外部存储来完成排序过程。外排序的过程可以概括为:首先将大文件分割为多个可以装入内存的...
6. **外部分类过程**:外部分类主要分为两个阶段,即排序段生成和多路归并。 7. **合并排序**:每次使两个相邻的有序表合并成一个有序表的排序方法称为归并排序。 8. **索引文件**:索引文件在存储器上分为索引区...
11. **外部分类的K路平衡归并**:采用败者树可以提高归并效率,归并的效率与K有关,因为K决定了比较的次数。 12. **索引顺序文件**:索引表中的每个索引项对应主文件中的一条记录,用于快速定位。 13. **线性表的...
(3分) 在用败者树进行k路平衡归并的外部排序算法,其总的归并效率与k()** - **答案:** A (有关) - **解析:** 在使用败者树进行k路平衡归并时,k的大小直接影响到归并效率。随着k的增加,败者树的高度会增加,...
- 多路归并排序的实现。 ### 第9章 检索 #### 概念: - 检索是指在数据集中寻找特定数据元素的过程。 - 常见的检索方法包括二分法检索和散列表。 #### 方法: - 二分法检索的判定树及其查找过程。 - 散列表的设计...