`

java查询一次性查询几十万,几百万数据解决办法(转)

    博客分类:
  • java
 
阅读更多

java查询一次性查询几十万,几百万数据解决办法

很早的时候写工具用的一个办法。

当时是用来把百万数据打包 成rar文件。

所以用了个笨办法。 希望高手指导一下,有什么好方法没有啊


1、先批量查出所有数据,例子中是一万条一批。
2、在查出数据之后把每次的数据按一定规则存入本地文件。
3、获取数据时,通过批次读取,获得大批量数据。此方法参见:http://yijianfengvip.blog.163.com/blog/static/175273432201191354043148/

以下是查询数据库。按批次查询
public static void  getMonthDataList() {
        ResultSet rs = null;
        Statement stat = null;
        Connection conn = null;
        List<DataBean> list = new ArrayList<DataBean>();
        try {
            conn = createConnection();
            if(conn!=null){
                SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd");
                SimpleDateFormat timesdf = new SimpleDateFormat("yyyy-MM-dd HH:mm:ss");
                String nowDate = sdf.format(new Date());
                Config.lasttimetext = timesdf.format(new Date());
                String lastDate = sdf.format(CreateData.addDaysForDate(new Date(), 30));
                stat = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE);
                int lastrow = 0;
                int datanum = 0;
                String countsql = "SELECT count(a.id) FROM trip_special_flight a" +
                " where a.dpt_date >= to_date('"+nowDate+"','yyyy-mm-dd') " +
                "and a.dpt_date <= to_date('"+lastDate+"','yyyy-mm-dd') and rownum>"+lastrow+" order by a.get_time  desc";
                rs = stat.executeQuery(countsql);
                while (rs.next()) {
                    datanum = rs.getInt(1);
                }
                int onerun = 10000;
                int runnum = datanum%onerun==0?(datanum/onerun):(datanum/onerun)+1;
                for(int r =0;r<runnum;r++){
                    System.out.println("getMonthDataList--"+datanum+" 开始查询第"+(r+1)+"批数据");
                    String sql = "SELECT * FROM  (SELECT rownum rn, a.dpt_code, a.arr_code,a.dpt_date,a.airways,a.flight," +
                    "a.cabin,a.price FROM trip_special_flight a" +
                    " where a.dpt_date >= to_date('"+nowDate+"','yyyy-mm-dd') " +
                    "and a.dpt_date <= to_date('"+lastDate+"','yyyy-mm-dd')  order by rownum  asc) WHERE rn > "+lastrow;
                    stat.setMaxRows(onerun);
                    stat.setFetchSize(1000);
                    rs = stat.executeQuery(sql);
                    String text = "";
                    int i = 1;
                    while (rs.next()) {
                        text += rs.getString(2)+"|"+rs.getString(3)+"|"+rs.getDate(4)+"|"+rs.getString(5)+"|"+rs.getString(6)+"|"+rs.getString(7)+"|"+rs.getString(8)+"||";
                        if(i%1000==0){
                            FileUtil.appendToFile(Config.tempdatafile, text);
                            text = "";
                        }
                        i++;
                    }
                    if(text.length()>10){
                        FileUtil.appendToFile(Config.tempdatafile, text);
                    }
                    lastrow+=onerun;
                }
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            closeAll(rs, stat, conn);
        }
    }
 

-----java一次性查询几十万,几百万数据解决办法

 

 

存入临时文件之后,再用读取大量数据文件方法。

 

设置缓存大小BUFFER_SIZE ,Config.tempdatafile是文件地址

来源博客http://yijianfengvip.blog.163.com/blog/static/175273432201191354043148/

 

package com.yjf.util;
import java.io.File;
import java.io.RandomAccessFile;
import java.nio.MappedByteBuffer;
import java.nio.channels.FileChannel;

public class Test {
    public static void main(String[] args) throws Exception {
        final int BUFFER_SIZE = 0x300000; // 缓冲区为3M
        File f = new File(Config.tempdatafile);
 //  来源博客http://yijianfengvip.blog.163.com/blog/static/175273432201191354043148/
        int len = 0;
        Long start = System.currentTimeMillis();
        for (int z = 8; z >0; z--) {
            MappedByteBuffer inputBuffer = new RandomAccessFile(f, "r")
                    .getChannel().map(FileChannel.MapMode.READ_ONLY,
                            f.length() * (z-1) / 8, f.length() * 1 / 8);
            byte[] dst = new byte[BUFFER_SIZE];// 每次读出3M的内容
            for (int offset = 0; offset < inputBuffer.capacity(); offset += BUFFER_SIZE) {
                if (inputBuffer.capacity() - offset >= BUFFER_SIZE) {
                    for (int i = 0; i < BUFFER_SIZE; i++)
                        dst[i] = inputBuffer.get(offset + i);
                } else {
                    for (int i = 0; i < inputBuffer.capacity() - offset; i++)
                        dst[i] = inputBuffer.get(offset + i);
                }
                int length = (inputBuffer.capacity() % BUFFER_SIZE == 0) ? BUFFER_SIZE
                        : inputBuffer.capacity() % BUFFER_SIZE;
                len += new String(dst, 0, length).length();
                System.out.println(new String(dst, 0, length).length()+"-"+(z-1)+"-"+(8-z+1));
            }
        }
        System.out.println(len);
        long end = System.currentTimeMillis();
        System.out.println("读取文件文件花费:" + (end - start) + "毫秒");
    }
}
 
读取大量数据文件方法。
分享到:
评论

相关推荐

    java快速导出几十万百万生成DBF文件数据后台

    本项目“java快速导出几十万百万生成DBF文件数据后台”主要关注如何使用Java编程语言高效地处理大规模数据,将其导出为DBF文件格式。 首先,我们需要了解Java处理大量数据的基本策略。在Java中,处理大数据的关键...

    Java Mybatis Maven多线程处理百万数据修改的小工具项目

    总的来说,"Java Mybatis Maven多线程处理百万数据修改的小工具"项目展示了如何巧妙地结合Mybatis的灵活性和Java的多线程能力,来解决大数据量处理的难题。这种解决方案对于处理大数据场景的企业级应用具有很高的...

    java实现csv导出千万级数据实例

    1. **数据分页**:根据数据库查询能力,设定合适的分页大小,如10000条或20000条,避免一次性取出过多数据。 2. **流式处理**:使用Java的BufferedWriter类进行流式写入,每批数据读取后立即写入文件,减少内存占用...

    利用kettle的api运用Java代码完成数据转换到excel和数据库源码

    利用 Kettle 的 API 运用 Java 代码完成数据转换到 Excel 和数据库源码 Kettle 是一个开源的 ETL 工具,纯 Java 编写,绿色无需安装,数据抽取高效稳定。Kettle 中有两种脚本文件,transformation 和 job,...

    读取百万级数据量的xlsx文件的java代码

    该代码可以处理100万数据量的excel文件,xlsx文件数据量太大,用普通的读法会报内存溢出错误,所以用官网提供的方法,一条一条的读取大excel文件,本例子从这点出发,组装excel里读取的单条数据为list,在根据需求...

    java快速插入千万级数据

    java快速插入千万级数据,亲测91秒插入1700万数据!!!

    java list 转换为json数据

    java list 转换为json数据java list 转换为json数据java list 转换为json数据java list 转换为json数据java list 转换为json数据java list 转换为json数据java list 转换为json数据java list 转换为json数据java ...

    java转js工具

    综上所述,"java转js工具"是一个重要的开发辅助工具,它帮助开发者在Java和JavaScript之间架起桥梁,使得跨平台开发变得更加便捷。然而,使用时需要注意语言特性的差异,以及转换过程中可能出现的问题和挑战。

    java多线程导出excel(千万级别)优化

    传统的Apache POI库在处理大规模数据时可能会遇到栈溢出(StackOverflowError)和内存溢出(OutOfMemoryError)等问题,因为这些库将所有数据加载到内存中一次性处理。为了解决这些问题,我们可以采用分批导出和多...

    java多个数据库实现数据同步

    在IT行业中,数据库同步是一个关键话题,特别是在分布式系统和企业级应用中,多个数据库的同步是确保数据一致性、完整性和高可用性的重要手段。本文将深入探讨如何使用Java来实现多个数据库之间的数据同步。 首先,...

    java swing 多选下拉框 支持动态加载数据

    4. **Dynamic Loading Data**:动态加载数据意味着在用户交互时,数据不是一次性全部加载,而是按需加载。这可以提高应用性能,特别是在处理大量数据时。可以使用懒加载策略,只有当用户滚动到新数据或请求更多数据...

    Java实现Rtsp数据拆包组帧成H264帧

    本文将深入探讨如何使用Java实现RTSP数据的拆包组帧,并将其转换为H264数据帧。 首先,理解RTSP数据的传输过程至关重要。RTSP通过TCP或UDP传输RTP(实时传输协议)数据包,每个RTP包通常包含一个或多个连续的视频帧...

    JAVA学生成绩查询系统

    【JAVA学生成绩查询系统】是一个基于JAVA编程语言开发的应用,旨在实现学生对成绩的便捷查询功能。尽管在登录模块可能存在一些小问题,但整个系统的后端代码展示出了JAVA处理数据库信息的强大能力,并且能够将数据...

    Java2Pas Java代码转pas代码

    Java是一种广泛使用的高级编程语言,以其平台无关性和强大的类库支持闻名。它的语法受到C++的影响,但引入了垃圾回收机制,简化了内存管理。另一方面,Pascal则是一种较老的语言,源于1970年代,因其清晰的语法结构...

    Class文件转JAVA

    轻松方便的把class文件转化为java文件

    音频格式转换(Java源码)

    这是一个用Java语言编写的音频转换源码。ConvertAudioFileFormat_Code.rar内是Myeclipse工程文件,导入Myeclipse即可调试使用。代码只演示了从wav转到Mp3,需要其他的类型的转换,请参考JAVE-Manual。

    java数据结构(Java版)(第3版)[叶核亚] 全套资料

    《Java数据结构(Java版)(第3版)》是由叶核亚编著的一本针对Java程序员深入理解数据结构的经典教材。这本书详细介绍了如何在Java编程环境中应用各种数据结构,帮助读者提升算法设计和问题解决能力。以下是该书...

    java数据结构笔试题

    "Java 数据结构笔试题" 本资源提供了一些常见的 Java 数据结构笔试题,包括冒泡排序、选择排序、二分查找等。这些题目都是作者在 2009 年参加 Java 工程师面试时遇到的,代码已经通过测试,可以放心使用。下面是对...

    java调用json参数的webservice

    在探讨Java调用带有JSON参数的WebService之前,我们首先需要了解几个关键的技术概念:Java、JSON以及WebService。 Java是一种广泛使用的编程语言,它具有面向对象、跨平台、多线程以及健壮性等特点。Java在企业级...

    java开源包9

    JSTUN 是另外一个用来解决穿越 NAT 进行通讯的 Java 解决方案,是 STUN 协议的 Java实现。 在浏览器上运行Java程序 Doppio DoppioVM 是一个可在浏览器上直接运行 Java 项目的系统,无需任何插件支持。目前它包含一...

Global site tag (gtag.js) - Google Analytics