PreparedStatement 批量更新数据可以提升程序执行效率,缩短程序运行时间,但是在实际工作中运用时,发现要注意以下几个问题:
系统环境:
JDK1.6.0_21
Oracle10g
Eclipse3.6.1
用到的jar包:
ojdbc6.jar
commons.logging-1.1.1.jar
commons-dbcp-1.4.jar
commons-pool-1.5.5.jar
commons-collections-3.2.1.jar
log4j-1.2.6.jar
spring2.5.6.jar
(1)虽然是批量提交,但当数据量大时应该将提交设置为每500次已提交(更具具体情况而定),这么干的好处可以节约内存资源,至少不会因为内存不够用而报内存溢出的异常,在有就是可以加快数据库的执行效率。
(2)connect.commit()后connect可能会被关闭,需要再次开启
事例代码如下:
static Logger log = Logger.getLogger(UpdateLog.class);
static final int COMMIT = 500; //每500条记录一提交
Connection connect = null;
PreparedStatement pstmt = null;
String strsql = null;
/**
* 办公用品结款
* @param supid
* @param rows
* @param jg_je
* @param s_je
* @param cpid
*/
public void ULogOffice(int supid,int rows,double jg_je,double s_je,List<CPInfoData> cpid){
int rowsTmp = 0;
try {
connect = DBConn.getConnection(); //打开一个池连接
connect.setAutoCommit(false);
//第一步:更新t_supplier_log 表
strsql = "INSERT INTO t_bi_supplier_log VALUES(?,sysdate,?,?,?,0,'首次','办公厨房','SYSTEM','ONE')";
insertInfo(supid, rows, jg_je, s_je);
//第二步:更新syn_provid_psjh_mx 表中 lb1 为 40
strsql = "UPDATE syn_provid_psjh_mx SET lb1='40' " +
"WHERE jhdate=? AND sup_id=? AND lb=? AND rkdh=? AND jkdate is null";
if(cpid.size()!=0){
for (CPInfoData cpInfoData : cpid) {
//门店 用sup_id、jhdate、lb、id确定唯一一条记录
pstmt = connect.prepareStatement(strsql.toString());
pstmt.setDate(1, Date.valueOf(cpInfoData.getJhdate().substring(0,10)));
pstmt.setInt(2, supid);
pstmt.setString(3, cpInfoData.getLb());
pstmt.setString(4, cpInfoData.getDh().trim());
pstmt.addBatch();
if(rowsTmp%COMMIT==0){//每500条记录一提交
pstmt.executeBatch();
connect.commit();
if (null==connect) { //如果连接关闭了 就在创建一个 为什么要这样 原因是 conn.commit()后可能conn被关闭
connect = DBConn.getConnection();
connect.setAutoCommit(false);
}
}
rowsTmp++;
}
pstmt.executeBatch();
connect.commit();
}
connect.setAutoCommit(true);
log.info("ULogOffice 办公用品 [" + supid +"] 数据库更新完毕" );
}catch (Exception e) {
try {
connect.rollback();
log.info("ULogOffice 办公用品 [" + supid +"] 数据库更新异常-回滚[" + e.getMessage() + "]");
} catch (SQLException e1) {
e1.printStackTrace();
}
e.printStackTrace();
}finally{
closePstmt(pstmt);
closeConnection(connect);
}
}
分享到:
相关推荐
综上所述,JDBC的批量操作包括批量插入、批量更新、批量删除等,它们都依赖于`PreparedStatement`的批量处理能力。通过合理的使用这些批量操作,可以显著提高Java应用程序在处理大量数据时的性能和效率。
本文将深入探讨如何使用JDBC进行批量插入数据,这在处理大量数据时能显著提高性能。 批量插入数据是数据库操作中常见的一种优化策略,特别是在数据分析、数据迁移或大数据处理等场景。传统的单条插入方式可能会导致...
在Java数据库连接(Java Database Connectivity,简称JDBC)中,批量处理是一项重要的功能,它能够显著提高应用程序处理大量数据的效率。批量处理允许一次性发送多个SQL语句到数据库,而不是一条一条地执行,从而...
如果在批量操作中发生错误,整个事务可以回滚,避免了部分插入的数据不一致问题。 - **使用Oracle特定的Blob处理**:Oracle提供了`oracle.sql.BLOB`类,它具有更高级别的功能,如直接从文件系统读写Blob,可以减少...
在本文中,我们使用JDBC连接MySQL数据库,然后使用PreparedStatement批量插入数据。PreparedStatement是JDBC API中的一种预处理语句,它能够提高批量插入数据的效率。 四、JDBC连接MySQL数据库批量插入数据的步骤 ...
在实际应用中,存储过程的批量执行通常涉及定义一个接收数组参数的存储过程,然后通过JDBC的`CallableStatement`对象调用该过程,将所有待处理的数据一次性传入。 #### 总结 JDBC的批量处理机制是提高数据库操作...
在处理大量数据更新时,SQL Server 2005 的批量更新功能可以帮助提高执行效率。本文档详细介绍了如何有效利用 SQL Server 2005 的批量更新特性,并通过具体的示例来解决常见的性能瓶颈问题。 #### 二、使用 ...
总结来说,JDBC批量插入数据可以通过PreparedStatement、Statement或直接执行多条SQL语句来实现。PreparedStatement提供了预编译和参数化的优点,更适合大数据量操作。在进行性能优化时,还应考虑设置合适的批处理...
首先,**JDBC创建触发器** 是一种数据库级别的事件响应机制,允许在特定数据库事件(如插入、更新或删除记录)发生时自动执行预定义的SQL代码。通过JDBC,我们可以编写Java程序来动态生成并执行创建触发器的SQL语句...
在实现JDBC数据同步时,需要注意以下几点: - **事务管理**:为确保数据一致性,通常在同步操作中使用事务,一旦某一步失败,整个事务都将回滚。 - **错误处理**:必须处理可能出现的各种异常,如网络中断、数据库...
本文中提供了一个完整的示例代码,演示了Java实现批量向mysql写入数据的方法,包括JDBC连接mysql数据库、批量向mysql写入数据和基本的异常处理等操作。该示例代码可以作为Java程序设计的参考,帮助读者更好地理解...
JDBC由一系列接口和类组成,其中包括`DriverManager`、`Connection`、`Statement`、`PreparedStatement`和`ResultSet`等核心组件。 ### 数据库连接 在程序中,首先需要加载合适的数据库驱动并建立连接。这通常通过...
在IT行业中,经常需要处理大量的数据,...总之,通过Java结合Apache POI和JDBC,我们可以高效地实现Excel数据批量导入到MySQL数据库,大大提升了数据处理的效率。这种技术在大数据处理、数据分析等领域有着广泛的应用。
在`JDBCBatchInsert.java`中,可以看到如何创建PreparedStatement对象,设置占位符,然后多次调用`addBatch()`添加不同的数据,最后调用`executeBatch()`执行批量插入。 2. **使用Statement的batchUpdate()** ...
本文将通过一个具体的实例来探讨如何在Java中实现对Oracle数据库的批量数据操作。 首先,批量插入数据通常涉及到PreparedStatement对象的使用。PreparedStatement是Statement的子类,它允许预编译SQL语句,从而提高...
综上所述,通过JDBC连接程序实现数据库数据迁移是一个涉及多步骤的过程,包括连接数据库、编写查询、处理结果、批量插入、资源管理和错误处理。在实际操作中,应根据具体业务需求进行调整和优化,确保迁移的高效和...
获取连接后,使用`Statement`或`PreparedStatement`对象执行SQL查询,获取源数据库的数据。接着,通过相同的方式连接目标数据库,并将数据插入。 在分表数据迁移中,如果源数据库有多个表需要迁移,我们需要对每个...
1. JDBC批处理:使用`PreparedStatement`的`addBatch()`和`executeBatch()`方法,可以将多条SQL语句一次性提交,减少数据库交互次数。 2. ORM框架:Hibernate、MyBatis等ORM框架提供了批量插入、更新、删除的功能,...
**JDBC数据访问技术** Java Database Connectivity (JDBC) 是Java平台中用于访问数据库的标准Java API,它允许Java应用程序与各种数据库系统进行交互。通过JDBC,开发者可以编写跨平台的数据库应用程序,无论数据库...
综上所述,Java使用JDBC进行批量插入数据是通过PreparedStatement的批处理功能实现的,通过设置手动提交和优化连接字符串,以及合理控制批量处理的大小和选择合适的数据库配置,可以有效地提高插入10万条或更多数据...