`

大批量数据(100以上)的处理方法

阅读更多
摘要: 公司业务,某个逻辑会涉及到大批量数据。举个例子,现有手机(Mobile),和日志对象(说是日志对象,其实并不太准备,因是日志大多数情况下是不会修改的,暂且这么理解吧,假设这里讨论的日志对象允许做修改。其实我想表达很简单,就是一对多的关系,具体的你可以自己想像理解。)

首先,公司里用到的是Hibernate。现在的代码大约是这个样子的


String hql = " from detail where detail.parent.id = :id";
List<XXX> objs = query(XXX);
for(XXX xxx : objs){
   xxx.setXXX
   xxx.setXXX
   store(xxxx);
}

先查询出明细,然后循环设置值,最后保存。看到这里,可能有人会说了,直接根据ID进行UPDATE不就行了吗?是的,当然可以,只不过业务中还有其它的逻辑,更新,只是其中的一部分。回到主题,对于类似的情形,在公司我写了有好几次了,决心封装一下。另外,上述的代码中还有一个隐患,那就是,当明细多了以后,比如成百上千条时,一次都加载出来,可能会出现性能的问题吧,比如卡了,或是内存溢出。

贴上我封装的代码吧

import java.util.ArrayList;
import java.util.Arrays;
import java.util.List;

public class DataHelper {
	/**
	 * 处理数据量较多的情况。
	 * @param size 希望一次处理多少条
	 * @param ids 对象的ID的集合
	 * @param callBack 回调函数
	 */
	public static void splitGroup(int size, List<Long> ids, GroupCallBack callBack) {
		if (ids == null || ids.size() == 0) {
			return;
		}
		
		boolean doAction = false;
		List<Long> temp = new ArrayList<Long>();
		int total = ids.size();

		for (int i = 0; i < ids.size(); i++) {
			doAction = false;
			temp.add(ids.get(i));

			if (temp.size() == size || (i == total - 1)) {
				doAction = true;
			}

			if (doAction) {
				callBack.doAction(temp);

				temp = new ArrayList<Long>();
			}
		}
	}
}

上述代码,主要是对数据进行拆分,比如希望一次100,那么,程序就计算是否到达了100,如果是的话,则调用回调函数。回调函数,是一个接口类型的,需要自己写实现。回调方法中,传入一个集合,其大小则为100。

import java.util.List;

/**
 * 处理大数据的回调函数
 *
 */
public interfaceGroupCallBack{
	
	/**
	 * 回调方法。当size达得指定的大小时,或是到达最后一个数据时,调用此方法
	 * @param ids 包含指定的IDS。其大小为指定的size
	 */
	public void doAction(List<Long> ids);
}

另外,传入的集合,很有可能会出现不足100的情况。比如356,则会调用4次回调函数,即,100,200,300各一次,最后的56条,会再调用一次。

最后,写个test

	public static void main(String[] args) {
        // 这4行代码,模拟一下查询明细。这里模似一下,假设查询到356条明细。没有链接数据库,直接填充list。
		List<Long> moveDocIds = new ArrayList<Long>();
		for (int i = 0; i < 356; i++) {
			moveDocIds.add(Long.parseLong(i + ""));
		}

        // 代码改进的地方
		DataHelper.splitGroup(100, moveDocIds, new GroupCallBack() {
			@Override
			public void doAction(List<Long> ids) {
                // 这里的参数,就是分组完以后的了。
				System.out.println(Arrays.toString(ids.toArray()));

				// to do
				String hql = "from detail where id in (:ids)";
				// load
				// for(wmmovedoc doc : docs){ doc.setXXX doc.setXXXX
				// store(doc);}
			}
		});

		System.out.println("end");
	}

输出的结果为

[0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99]
[100, 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117, 118, 119, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 131, 132, 133, 134, 135, 136, 137, 138, 139, 140, 141, 142, 143, 144, 145, 146, 147, 148, 149, 150, 151, 152, 153, 154, 155, 156, 157, 158, 159, 160, 161, 162, 163, 164, 165, 166, 167, 168, 169, 170, 171, 172, 173, 174, 175, 176, 177, 178, 179, 180, 181, 182, 183, 184, 185, 186, 187, 188, 189, 190, 191, 192, 193, 194, 195, 196, 197, 198, 199]
[200, 201, 202, 203, 204, 205, 206, 207, 208, 209, 210, 211, 212, 213, 214, 215, 216, 217, 218, 219, 220, 221, 222, 223, 224, 225, 226, 227, 228, 229, 230, 231, 232, 233, 234, 235, 236, 237, 238, 239, 240, 241, 242, 243, 244, 245, 246, 247, 248, 249, 250, 251, 252, 253, 254, 255, 256, 257, 258, 259, 260, 261, 262, 263, 264, 265, 266, 267, 268, 269, 270, 271, 272, 273, 274, 275, 276, 277, 278, 279, 280, 281, 282, 283, 284, 285, 286, 287, 288, 289, 290, 291, 292, 293, 294, 295, 296, 297, 298, 299]
[300, 301, 302, 303, 304, 305, 306, 307, 308, 309, 310, 311, 312, 313, 314, 315, 316, 317, 318, 319, 320, 321, 322, 323, 324, 325, 326, 327, 328, 329, 330, 331, 332, 333, 334, 335, 336, 337, 338, 339, 340, 341, 342, 343, 344, 345, 346, 347, 348, 349, 350, 351, 352, 353, 354, 355]
end

 

总结:以上这么多,说到底就是对大批量数据的处理方法。我的代码实现,有点类似于spring的XXXTempleate。

 

打个小广告

我建立了个群  622539266  JAVA知识交流,有在学JAVA的,或是想学JAVA的,可以加进来哦。

分享到:
评论

相关推荐

    如何使用Pandas处理大批量数据

    Why and How to Use Pandas with Large Data ,如何使用Pandas处理大批量数据,介绍了如何减少内存消耗,学习利用pandas进行大批量数据处理不错的参考资料。

    大批量数据处理技术

    大批量数据处理技术 大批量数据处理技术,

    数据库大批量数据处理技术

    现在的数据库都要有良好的处理大批量数据的能力,这份ppt就介绍了如何设计一个具有处理大批量数据的数据库,设计合理的话亿万级的都完全没问题。另:文档非本人原创,觉得资源很好不自觉分享给大家。

    java多线程实现大批量数据导入源码

    本项目以"java多线程实现大批量数据导入源码"为题,旨在通过多线程策略将大量数据切分,并进行并行处理,以提高数据处理速度。 首先,我们需要理解Java中的线程机制。Java通过`Thread`类来创建和管理线程。每个线程...

    浅析数据库管理系统中大批量数据处理的优化技术.pdf

    本文旨在浅析在数据库管理系统中,如何有效进行大批量数据处理的优化技术。 首先,SQL(结构化查询语言)作为数据库管理系统的基础,是处理和查询数据库数据的主要手段。SQL的基本命令可以实现数据的增删改查,从而...

    JAVA使用线程池查询大批量数据

    在Java开发中,处理大批量数据时,合理利用线程池可以显著提高程序的执行效率和资源利用率。本文将深入探讨如何在Java中使用线程池来查询大量数据,以及这样做的好处和实现方法。 首先,理解线程池的概念至关重要。...

    EXCEL定义图形在大批量ELISA实验数据处理中的应用.pdf

    这个特性在处理大批量数据时尤其重要,因为手动更新大量数据的可视化表示不仅耗时而且容易出错。 此外,Excel的定义图形还能够应用于数据的分类比较。例如,如果需要比较不同时间点或不同实验条件下的ELISA数据,...

    .net大批量数据分页

    三、优化大批量数据处理 1. **索引优化**:为用于排序和筛选的字段创建合适的索引,可以大大提高查询效率。 2. **避免全表扫描**:确保查询条件能够利用到索引,避免对整个大表进行扫描。 3. **使用TOP或LIMIT**:在...

    SQLSERVER大批量数据的处理和优化

    ### SQL Server 大批量数据处理与优化综合指南 #### 一、引言 在现代企业的数据处理场景中,SQL Server 作为一款广泛使用的数据库管理系统,其性能优化对于提高业务效率至关重要。特别是在面对大规模数据处理需求...

    C#、.Net平台大批量提交数据到数据库

    本话题主要聚焦于如何在C#中实现大批量数据的高效提交到数据库,同时考虑并发处理和不同提交策略。 首先,批量提交数据可以显著提高数据插入或更新的效率,因为每次数据库事务处理的数据量更大,减少了网络传输的...

    IIS 大批量数据处理

    设置IIS7文件上传的最大大小 maxAllowedContentLength,maxRequestLength 当上传一个超过30M的文件时,服务器会重定向至404.13页面,报错如下:

    oracle 数据仓库大批量数据处理技术.ppt

    6. **调优策略**:针对大批量数据处理,调优包括选择合适的分区策略、优化索引、使用并行执行、调整表空间分配等。此外,还需要考虑硬件资源、数据库配置以及SQL语句的编写。 7. **数据仓库设计**:在设计数据仓库...

    导入大批量数据的奇招

    通过上述分析,我们可以看到`SqlBulkCopy`在处理大批量数据导入任务时的强大能力。然而,为了最大限度地发挥其效能,还需注意以下几点: - **连接字符串的安全性**:应确保连接字符串中的敏感信息(如用户名、密码...

    java解决大批量数据导出Excel产生内存溢出的方案

    在Java开发中,当面临大批量数据导出到Excel文件时,可能会遇到内存溢出的问题。这是因为Excel文件格式本身的设计,以及Java默认处理大数据的方式,可能导致内存占用过高,尤其是在一次性加载大量数据到内存中进行...

    .net中DataGridView异步加载大批量数据

    多线程异步加载大批量数据到Datagridview中,没次加载1000条数据。 引用DLL,调用方法: string sql = "select top {0} * from {2} where FItemID not in (select top {1} FItemID from {2})"; string tbName = ...

    oracle分区技术-大批量数据操作.ppt

    oracle分区技术-大批量数据操作,优化处理,大数据量的处理

    大批量存储数据和优化

    传统的数据处理方式,例如直接使用参数化SQL或DataSet与DataAdapter,可能会在处理大批量数据时遇到性能瓶颈,因为每次操作都要对目标表进行多次独立的SQL交互。这种情况下,数据库的优化效果可能无法满足需求,尤其...

    针对大批量数据的导入

    可以大批量地处理数据的导入,并将无关行列删除,再对数据中的字符串、数字格式统一,与拼接,并与另一个xls文档中的数据进行比较,是一个不错的代码。

    oracle大批量数据处理.ppt

    oracle大批量处理数

Global site tag (gtag.js) - Google Analytics