论坛首页 Java企业应用论坛

这不是面试题,这是真事

浏览 39066 次
精华帖 (0) :: 良好帖 (1) :: 新手帖 (1) :: 隐藏帖 (0)
作者 正文
   发表时间:2013-07-30  
hardPass 写道
yanyilin224 写道
hardPass 写道
yanyilin224 写道
既然第二列存的是个整数,也不会出现极端情况(比如同一个数字出现Interger.Max_Value次),那么不用分文件,不依赖第三档库,用java.io就能搞定,对内存要求很低,只需要一个2.2G左右的临时文件。
大致算法:
1.创建临时文件
2.读取要解析的文件,每次读一行数据,读到第二列的整数n
3.利用RandomAccessFile读取临时文件的第n个byte(file.seek(n);file.read(byte[1]);)
4.如果读不到数据,或读到的是0,那么向这个位上写入一个1
5.如果读到的是大于0的数字,那么把该数字+1之后再回文件这个byte上(按楼主的要求,如果大于2的话不再写入也正确,因为用于计数的只有一个byte,记录不了太多重复)
6.读取完成后,遍历一次临时文件,如果读到第x位的值大于2,说明整数x出现过超过两次或以上





能不纸上谈兵不?
不知道你这个2.2G是怎么计算出来的?

seek?磁盘寻道时间大概是10ms,2亿行 * 10ms,你计算过需要需要多少时间么?这还没计算你遍历大文件的时间。

不知道你有没有看懂,如果看懂了的话2.2G是很自然就能计算出来的,临时文件最多Intger.MAX_VALUE个byte,当然是接近2.2G左右,具体数字没有细算。
至于你说seek寻道时间,刚测试了一下,100万次随机位置的seek,平均耗时314.3ns,平均3000次seek才1ms,也不算太慢吧?



你所谓的“2.2G是很自然就能计算出来的”,我看不懂,请给出公式。

还有你所谓的“平均耗时314.3ns”,你自己信么?请给出具体的测试代码


314ns已经改了,是测试代码的问题,每次seek+write接近3ms。
2.2G是直接把Interger.MAX_VALUE(byte)换算成G就OK
0 请登录后投票
   发表时间:2013-07-30  
yanyilin224 写道
hardPass 写道
yanyilin224 写道
hardPass 写道
yanyilin224 写道
既然第二列存的是个整数,也不会出现极端情况(比如同一个数字出现Interger.Max_Value次),那么不用分文件,不依赖第三档库,用java.io就能搞定,对内存要求很低,只需要一个2.2G左右的临时文件。
大致算法:
1.创建临时文件
2.读取要解析的文件,每次读一行数据,读到第二列的整数n
3.利用RandomAccessFile读取临时文件的第n个byte(file.seek(n);file.read(byte[1]);)
4.如果读不到数据,或读到的是0,那么向这个位上写入一个1
5.如果读到的是大于0的数字,那么把该数字+1之后再回文件这个byte上(按楼主的要求,如果大于2的话不再写入也正确,因为用于计数的只有一个byte,记录不了太多重复)
6.读取完成后,遍历一次临时文件,如果读到第x位的值大于2,说明整数x出现过超过两次或以上





能不纸上谈兵不?
不知道你这个2.2G是怎么计算出来的?

seek?磁盘寻道时间大概是10ms,2亿行 * 10ms,你计算过需要需要多少时间么?这还没计算你遍历大文件的时间。

不知道你有没有看懂,如果看懂了的话2.2G是很自然就能计算出来的,临时文件最多Intger.MAX_VALUE个byte,当然是接近2.2G左右,具体数字没有细算。
至于你说seek寻道时间,刚测试了一下,100万次随机位置的seek,平均耗时314.3ns,平均3000次seek才1ms,也不算太慢吧?



你所谓的“2.2G是很自然就能计算出来的”,我看不懂,请给出公式。

还有你所谓的“平均耗时314.3ns”,你自己信么?请给出具体的测试代码


314ns已经改了,是测试代码的问题,每次seek+write接近3ms。
2.2G是直接把Interger.MAX_VALUE(byte)换算成G就OK


3ms也值得怀疑,除非你做了raid,或者你的硬盘配置确实好,不过数量级上差不多了。

你这个Interger.MAX_VALUE有很大的问题啊。
你要是以2亿(行数)计算实际大小,或者用1e16-1(15位数字所表示的最大数字)计算稀疏文件的表面大小,都可以说是成立的,但是Interger.MAX_VALU么,逻辑不清。
0 请登录后投票
   发表时间:2013-07-30   最后修改:2013-07-30
hardPass 写道
yanyilin224 写道
hardPass 写道
yanyilin224 写道
hardPass 写道
yanyilin224 写道
既然第二列存的是个整数,也不会出现极端情况(比如同一个数字出现Interger.Max_Value次),那么不用分文件,不依赖第三档库,用java.io就能搞定,对内存要求很低,只需要一个2.2G左右的临时文件。
大致算法:
1.创建临时文件
2.读取要解析的文件,每次读一行数据,读到第二列的整数n
3.利用RandomAccessFile读取临时文件的第n个byte(file.seek(n);file.read(byte[1]);)
4.如果读不到数据,或读到的是0,那么向这个位上写入一个1
5.如果读到的是大于0的数字,那么把该数字+1之后再回文件这个byte上(按楼主的要求,如果大于2的话不再写入也正确,因为用于计数的只有一个byte,记录不了太多重复)
6.读取完成后,遍历一次临时文件,如果读到第x位的值大于2,说明整数x出现过超过两次或以上





能不纸上谈兵不?
不知道你这个2.2G是怎么计算出来的?

seek?磁盘寻道时间大概是10ms,2亿行 * 10ms,你计算过需要需要多少时间么?这还没计算你遍历大文件的时间。

不知道你有没有看懂,如果看懂了的话2.2G是很自然就能计算出来的,临时文件最多Intger.MAX_VALUE个byte,当然是接近2.2G左右,具体数字没有细算。
至于你说seek寻道时间,刚测试了一下,100万次随机位置的seek,平均耗时314.3ns,平均3000次seek才1ms,也不算太慢吧?



你所谓的“2.2G是很自然就能计算出来的”,我看不懂,请给出公式。

还有你所谓的“平均耗时314.3ns”,你自己信么?请给出具体的测试代码


314ns已经改了,是测试代码的问题,每次seek+write接近3ms。
2.2G是直接把Interger.MAX_VALUE(byte)换算成G就OK


3ms也值得怀疑,除非你做了raid,或者你的硬盘配置确实好,不过数量级上差不多了。

你这个Interger.MAX_VALUE有很大的问题啊。
你要是以2亿(行数)计算实际大小,或者用1e16-1(15位数字所表示的最大数字)计算稀疏文件的表面大小,都可以说是成立的,但是Interger.MAX_VALU么,逻辑不清。



看懂算法就知道,逻辑简单得很,看图吧
  • 大小: 23.2 KB
0 请登录后投票
   发表时间:2013-07-30  
iceman1952 写道


另外:不要建议分布式啥的,这个也用不起来,我这就是一个 standalone 的应用


什么逻辑?如果以后文件变成1000G 你也说我这只是一个standalone应用 你找其他人吧。。。
0 请登录后投票
   发表时间:2013-07-30  
http://www.dbafree.net/?p=36
布隆过滤器,提供一个别人写的例子。
0 请登录后投票
   发表时间:2013-07-30  
hardPass 写道
chinaagan 写道
用线程池+同步队列,算法就是拆分文件。。。队列就是保存待处理的文件及其状态大小。。。有两类线程,一类是拆分文件(就是根据数字来分,比如可以分100个文件,根据数字字符串前两位,如果文件还是挺大,可以继续分,提取数字字符串并保存到文件),一类是获取大小合适并已经拆分好的文件,然后统计出现次数大于等于二的并保存结果(可以保存到文件,并在在结果集中标明文件名,方便以后整合)。。。最后,任务都处理完的时候,就可以把结果集整合到一个文件中。。。线程池可以控制拆分和整合的线程数量。



迷信多线程的典型,写程序都写呆了吧。你确定磁盘IO操作为主的程序,多线程会更快?你以为你的磁盘有几个磁头?


现在磁盘IO慢吗?楼主这情形限制的是内存大小。。。这里明显可以用到多线程。。。当拆分好文件大小之后(比如每个文件50M左右),可以统计每个文件的重复数据(通过hashmap),各不相干,这里不用多线程用什么?
0 请登录后投票
   发表时间:2013-07-30  
chinaagan 写道
hardPass 写道
chinaagan 写道
用线程池+同步队列,算法就是拆分文件。。。队列就是保存待处理的文件及其状态大小。。。有两类线程,一类是拆分文件(就是根据数字来分,比如可以分100个文件,根据数字字符串前两位,如果文件还是挺大,可以继续分,提取数字字符串并保存到文件),一类是获取大小合适并已经拆分好的文件,然后统计出现次数大于等于二的并保存结果(可以保存到文件,并在在结果集中标明文件名,方便以后整合)。。。最后,任务都处理完的时候,就可以把结果集整合到一个文件中。。。线程池可以控制拆分和整合的线程数量。



迷信多线程的典型,写程序都写呆了吧。你确定磁盘IO操作为主的程序,多线程会更快?你以为你的磁盘有几个磁头?


现在磁盘IO慢吗?楼主这情形限制的是内存大小。。。这里明显可以用到多线程。。。当拆分好文件大小之后(比如每个文件50M左右),可以统计每个文件的重复数据(通过hashmap),各不相干,这里不用多线程用什么?

晕了,啥时候磁盘IO不慢了?
0 请登录后投票
   发表时间:2013-07-30  
shell直接弄就可以 如果要编程 参考shell的思想 只将第二列的数据放入缓存中或者一个临时文件当中 然后排序 然后再排查。
0 请登录后投票
   发表时间:2013-07-30  
teasp 写道
iceman1952 写道
teasp 写道
楼主,一个Integer占多少字节?何苦为了省long的4个字节而用hashmap呢,我觉得long数组是合理的。

Integer远比你想象的多(16字节)http://www.ibm.com/developerworks/cn/java/j-codetoheap/


所以我才提醒你没必要用Hashmap呀。

很多数字的前面 6 位是一样的,对于每一个这种数字,让它们共用一个 Integer的key,然后,每个数字的后面9位就可以用int(而不是long)来存储了

很明显这是在节省内存,有啥不对嘛?
0 请登录后投票
   发表时间:2013-07-30  
nicholasun 写道
iceman1952 写道


另外:不要建议分布式啥的,这个也用不起来,我这就是一个 standalone 的应用


什么逻辑?如果以后文件变成1000G 你也说我这只是一个standalone应用 你找其他人吧。。。

呃呃呃,需求就是“将一个大文件录入到 database”,就为了这个,我要搞个分布式,你觉得这个逻辑更讲得通?

PS:只有一个大文件,而且只有一张数据库表格。事实上,用oracle的external table应该也是挺好的,但是,由于需要对每个行进行 validate,所以,external table就被枪毙了
0 请登录后投票
论坛首页 Java企业应用版

跳转论坛:
Global site tag (gtag.js) - Google Analytics