- 浏览: 318466 次
- 性别:
- 来自: 青岛
文章分类
- 全部博客 (140)
- 技术笔记 (3)
- Dwr (1)
- 日常使用技巧 (11)
- eclipse使用技巧 (3)
- jxl使用技巧 (3)
- Struts2 (7)
- java 报表 (3)
- Webservices (2)
- Flex (15)
- vc,vc++ (11)
- Spring (6)
- j2me开发 (1)
- Java (27)
- Sql (11)
- Javascript (5)
- extjs (0)
- C# (8)
- jQuery (2)
- PHP (3)
- apache (4)
- sso单点登录 (1)
- linux (6)
- cisco vpn (1)
- android (1)
- MongoDB性能优化 (1)
- nosql (1)
- Java netbeans (1)
- js (1)
最新评论
-
jinyanhui2008:
hzq20100521 写道你好,我的需求这个有点不一样,我的 ...
spring 多数据库支持,动态切换数据库 -
hzq20100521:
你好,我的需求这个有点不一样,我的是系统启动的时候是连接的默认 ...
spring 多数据库支持,动态切换数据库 -
lbxhappy:
那如果tree.first()一开始就是最大的呢?是不是以后e ...
从bbs中看到的问题:从大量数据中取top100,整理的思路 -
programwyh:
jinyanhui2008 写道programwyh 写道我用 ...
使用jasperreports制作报表(导出pdf excel html) -
jinyanhui2008:
programwyh 写道我用java程序写的运用Jasper ...
使用jasperreports制作报表(导出pdf excel html)
环境: MySQL 5.1 RedHat Linux AS 5 JavaSE 1.5 DbConnectionBroker 微型数据库连接池 测试的方案: 执行10万次Insert语句,使用不同方式。 A组:静态SQL,自动提交,没事务控制(MyISAM引擎) 1、逐条执行10万次 2、分批执行将10万分成m批,每批n条,分多种分批方案来执行。 B组:预编译模式SQL,自动提交,没事务控制(MyISAM引擎) 1、逐条执行10万次 2、分批执行将10万分成m批,每批n条,分多种分批方案来执行。 ------------------------------------------------------------------------------------------- C组:静态SQL,不自动提交,有事务控制(InnoDB引擎) 1、逐条执行10万次 2、分批执行将10万分成m批,每批n条,分多种分批方案来执行。 D组:预编译模式SQL,不自动提交,有事务控制(InnoDB引擎) 1、逐条执行10万次 2、分批执行将10万分成m批,每批n条,分多种分批方案来执行。 本次主要测试C、D组,并得出测试结果。
DROP TABLE IF EXISTS tuser;
CREATE TABLE tuser (
id bigint(20) NOT NULL AUTO_INCREMENT,
name varchar(12) DEFAULT NULL,
remark varchar(24) DEFAULT NULL,
createtime datetime DEFAULT NULL,
updatetime datetime DEFAULT NULL,
PRIMARY KEY (id)
) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;
// C、D组测试代码: package testbatch; import java.io.IOException; import java.sql.*; /** * JDBC批量Insert优化(下) * * @author leizhimin 2009-7-29 10:03:10 */ public class TestBatch { public static DbConnectionBroker myBroker = null; static { try { myBroker = new DbConnectionBroker("com.mysql.jdbc.Driver", "jdbc:mysql://192.168.104.163:3306/testdb", "vcom", "vcom", 2, 4, "c:\\testdb.log", 0.01); } catch (IOException e) { e.printStackTrace(); } } /** * 初始化测试环境 * * @throws SQLException 异常时抛出 */ public static void init() throws SQLException { Connection conn = myBroker.getConnection(); conn.setAutoCommit(false); Statement stmt = conn.createStatement(); stmt.addBatch("DROP TABLE IF EXISTS tuser"); stmt.addBatch("CREATE TABLE tuser (\n" + " id bigint(20) NOT NULL AUTO_INCREMENT,\n" + " name varchar(12) DEFAULT NULL,\n" + " remark varchar(24) DEFAULT NULL,\n" + " createtime datetime DEFAULT NULL,\n" + " updatetime datetime DEFAULT NULL,\n" + " PRIMARY KEY (id)\n" + ") ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8"); stmt.executeBatch(); conn.commit(); myBroker.freeConnection(conn); } /** * 100000条静态SQL插入 * * @throws Exception 异常时抛出 */ public static void testInsert() throws Exception { init(); //初始化环境 Long start = System.currentTimeMillis(); for (int i = 0; i < 100000; i++) { String sql = "\n" + "insert into testdb.tuser \n" + "\t(name, \n" + "\tremark, \n" + "\tcreatetime, \n" + "\tupdatetime\n" + "\t)\n" + "\tvalues\n" + "\t('" + RandomToolkit.generateString(12) + "', \n" + "\t'" + RandomToolkit.generateString(24) + "', \n" + "\tnow(), \n" + "\tnow()\n" + ")"; Connection conn = myBroker.getConnection(); conn.setAutoCommit(false); Statement stmt = conn.createStatement(); stmt.execute(sql); conn.commit(); myBroker.freeConnection(conn); } Long end = System.currentTimeMillis(); System.out.println("单条执行100000条Insert操作,共耗时:" + (end - start) / 1000f + "秒!"); } /** * 批处理执行静态SQL测试 * * @param m 批次 * @param n 每批数量 * @throws Exception 异常时抛出 */ public static void testInsertBatch(int m, int n) throws Exception { init(); //初始化环境 Long start = System.currentTimeMillis(); for (int i = 0; i < m; i++) { //从池中获取连接 Connection conn = myBroker.getConnection(); conn.setAutoCommit(false); Statement stmt = conn.createStatement(); for (int k = 0; k < n; k++) { String sql = "\n" + "insert into testdb.tuser \n" + "\t(name, \n" + "\tremark, \n" + "\tcreatetime, \n" + "\tupdatetime\n" + "\t)\n" + "\tvalues\n" + "\t('" + RandomToolkit.generateString(12) + "', \n" + "\t'" + RandomToolkit.generateString(24) + "', \n" + "\tnow(), \n" + "\tnow()\n" + ")"; //加入批处理 stmt.addBatch(sql); } stmt.executeBatch(); //执行批处理 conn.commit(); // stmt.clearBatch(); //清理批处理 stmt.close(); myBroker.freeConnection(conn); //连接归池 } Long end = System.currentTimeMillis(); System.out.println("批量执行" + m + "*" + n + "=" + m * n + "条Insert操作,共耗时:" + (end - start) / 1000f + "秒!"); } /** * 100000条预定义SQL插入 * * @throws Exception 异常时抛出 */ public static void testInsert2() throws Exception { //单条执行100000条Insert操作,共耗时:40.422秒! init(); //初始化环境 Long start = System.currentTimeMillis(); String sql = "" + "insert into testdb.tuser\n" + " (name, remark, createtime, updatetime)\n" + "values\n" + " (?, ?, ?, ?)"; for (int i = 0; i < 100000; i++) { Connection conn = myBroker.getConnection(); conn.setAutoCommit(false); PreparedStatement pstmt = conn.prepareStatement(sql); pstmt.setString(1, RandomToolkit.generateString(12)); pstmt.setString(2, RandomToolkit.generateString(24)); pstmt.setDate(3, new Date(System.currentTimeMillis())); pstmt.setDate(4, new Date(System.currentTimeMillis())); pstmt.executeUpdate(); conn.commit(); pstmt.close(); myBroker.freeConnection(conn); } Long end = System.currentTimeMillis(); System.out.println("单条执行100000条Insert操作,共耗时:" + (end - start) / 1000f + "秒!"); } /** * 批处理执行预处理SQL测试 * * @param m 批次 * @param n 每批数量 * @throws Exception 异常时抛出 */ public static void testInsertBatch2(int m, int n) throws Exception { init(); //初始化环境 Long start = System.currentTimeMillis(); String sql = "" + "insert into testdb.tuser\n" + " (name, remark, createtime, updatetime)\n" + "values\n" + " (?, ?, ?, ?)"; for (int i = 0; i < m; i++) { //从池中获取连接 Connection conn = myBroker.getConnection(); conn.setAutoCommit(false); PreparedStatement pstmt = conn.prepareStatement(sql); for (int k = 0; k < n; k++) { pstmt.setString(1, RandomToolkit.generateString(12)); pstmt.setString(2, RandomToolkit.generateString(24)); pstmt.setDate(3, new Date(System.currentTimeMillis())); pstmt.setDate(4, new Date(System.currentTimeMillis())); //加入批处理 pstmt.addBatch(); } pstmt.executeBatch(); //执行批处理 conn.commit(); // pstmt.clearBatch(); //清理批处理 pstmt.close(); myBroker.freeConnection(conn); //连接归池 } Long end = System.currentTimeMillis(); System.out.println("批量执行" + m + "*" + n + "=" + m * n + "条Insert操作,共耗时:" + (end - start) / 1000f + "秒!"); } public static void main(String[] args) throws Exception { init(); Long start = System.currentTimeMillis(); System.out.println("--------C组测试----------"); testInsert(); testInsertBatch(100, 1000); testInsertBatch(250, 400); testInsertBatch(400, 250); testInsertBatch(500, 200); testInsertBatch(1000, 100); testInsertBatch(2000, 50); testInsertBatch(2500, 40); testInsertBatch(5000, 20); Long end1 = System.currentTimeMillis(); System.out.println("C组测试过程结束,全部测试耗时:" + (end1 - start) / 1000f + "秒!"); System.out.println("--------D组测试----------"); testInsert2(); testInsertBatch2(100, 1000); testInsertBatch2(250, 400); testInsertBatch2(400, 250); testInsertBatch2(500, 200); testInsertBatch2(1000, 100); testInsertBatch2(2000, 50); testInsertBatch2(2500, 40); testInsertBatch2(5000, 20); Long end2 = System.currentTimeMillis(); System.out.println("D组测试过程结束,全部测试耗时:" + (end2 - end1) / 1000f + "秒!"); } }
执行结果:
--------C组测试----------
单条执行100000条Insert操作,共耗时:103.656秒!
批量执行100*1000=100000条Insert操作,共耗时:31.328秒!
批量执行250*400=100000条Insert操作,共耗时:31.406秒!
批量执行400*250=100000条Insert操作,共耗时:31.75秒!
批量执行500*200=100000条Insert操作,共耗时:31.438秒!
批量执行1000*100=100000条Insert操作,共耗时:31.968秒!
批量执行2000*50=100000条Insert操作,共耗时:32.938秒!
批量执行2500*40=100000条Insert操作,共耗时:33.141秒!
批量执行5000*20=100000条Insert操作,共耗时:35.265秒!
C组测试过程结束,全部测试耗时:363.656秒!
--------D组测试----------
单条执行100000条Insert操作,共耗时:107.61秒!
批量执行100*1000=100000条Insert操作,共耗时:32.64秒!
批量执行250*400=100000条Insert操作,共耗时:32.641秒!
批量执行400*250=100000条Insert操作,共耗时:33.109秒!
批量执行500*200=100000条Insert操作,共耗时:32.859秒!
批量执行1000*100=100000条Insert操作,共耗时:33.547秒!
批量执行2000*50=100000条Insert操作,共耗时:34.312秒!
批量执行2500*40=100000条Insert操作,共耗时:34.672秒!
批量执行5000*20=100000条Insert操作,共耗时:36.672秒!
D组测试过程结束,全部测试耗时:378.922秒!
测试结果意想不到吧,最短时间竟然超过上篇。观察整个测试结果,发现总时间很长,原因是逐条执行的效率太低了。
结论:
在本测试条件下,得出结论:
数据库连接池控制下,不自动提交,事务控制(InnoDB引擎)
1、逐条执行的效率很低很低,尽可能避免逐条执行。
2、事务控制下,静态SQL的效率超过预处理SQL。
3、分批的大小对效率影响挺大的,一般来说,事务控制下,分批大小在100-1000之间比较合适。
4、谈到优化方式,上面的批处理就是很好的优化策略。
大总结:
对比上篇没事务的测试结果,得出一个全面的结论:
1、连接池最基本的也是最重要的优化策略,总能大幅提高性能。
2、批处理在效率上总是比逐条处理有优势,要处理的数据的记录条数越大,批处理的优势越明显,批处理还有一个好处就是减少了对数据库的链接次数,从而减轻数据库的压力。
3、批处理执行SQL的时候,批处理的分批的大小与数据库的吞吐量以及硬件配置有很大关系,需要通过测试找到最佳的分批大小,一般在50-1000之间。
4、预处理SQL在没事务的表上效率较高,在有实物的情况下比静态SQL稍有不及。但预定义SQL还有个好处就是消耗的内存较少,静态SQL串会占用大量的内存资源,容易导致内存溢出的问题。因此批量执行时候可以优先选择预定义SQL。
5、在批处理执行的时候,每批执行完成后,最好显式的调用pstmt.close()或stmt.close()方法,以便尽快释放执行过的SQL语句,提高内存利用率。
6、对于有大量SELECT操作,MyISAM是更好的选择;对于有大量INSERT和UPDATE操作的表,InnoDB效率更好。
7、虽然测试结果只能反映特定情况下的一些事实,以上的优化策略是普遍策略,可以明显缩短寻找最优策略的时间,对于效率要求很高的程序,还应该做并发性等测试。
8、测试是件很辛苦的事情,你需要有大量的事实来证明你的优化是有效的,而不能单单凭经验,因为每个机器的环境都不一样,使用的方式也不同。
发表评论
-
常见NIO开源框架(MINA、xSocket)学习 (转自javaeye博客)
2012-11-09 15:07 7459http://unbounder.iteye.com/blog ... -
解决 PermGen space Tomcat内存设置
2011-05-10 15:30 2106在操作一段时间就会出现 java.lang.OutOfMemo ... -
proxool 多数据源动态切换,刚刚一网友问我,顺便写的一个demo
2010-09-27 17:39 2274package aa; import java.io.F ... -
转自CSDN以作备份,使用java获取文档的编码格式
2010-05-24 09:57 1232package com.util.mail; import ... -
从bbs中看到的问题:从大量数据中取top100,整理的思路
2010-04-01 14:13 1531TreeSet算法很强悍,以后一定要记得使用 p ... -
Eclipse导出JavaDoc中文乱码问题解决
2010-03-09 10:38 1022给 javadoc.exe 加上编码参数就OK。 ... -
搞懂java中的synchronized关键字
2009-12-18 14:38 991实际上,我关于java的基础知识的90%以上都来自Thinki ... -
JDialog 居中 方法二同样适合jFrame
2009-11-18 11:55 2834方法一调用JDialog的public void setLoc ... -
如果查询数据的时候报内存溢出咋办?
2009-10-30 10:45 1376前两天搞了个程序,需要一次性导出大量数据,在执行select的 ... -
关于java堆栈溢出的那些事
2009-08-31 09:47 2914java.lang.OutOfMemoryError: Jav ... -
手工将tomcat安装为服务及tomcat命令说明
2009-06-09 09:04 1766最近做了一个项目需要将tomcat和产品功能 ... -
Java 读取 INI 文件的示例
2009-05-19 18:15 1228package com.wfy.util; import ... -
java数据流压缩
2009-05-14 17:53 3603package com.wfy.util; import ... -
用java发送邮件
2009-05-13 13:33 1425<%@page contentType="te ... -
java窗口最小化到任务栏
2009-05-07 11:46 4162import java.awt.AWTException; ... -
Java 读/写文件文本文件的示例
2009-04-24 08:38 1094/* * 简单的读/写文本 ... -
java读写消息资源文件
2009-04-23 15:46 1676package com.lwf.util; import ... -
如果 点击子窗口父窗口也随之关闭 请看
2009-04-23 13:11 1906如果点击子窗口关闭按钮,父窗口也关闭了,可能是设置的问题 ... -
读取资源文件的N种方法- -
2009-04-23 09:37 1188如何读取资源文件:(一)Properties props = ... -
HTMLParser的使用
2009-03-11 17:32 1916一. 简介 htmlparser用于 对html页 ...
相关推荐
在SQL Server环境中,批量执行SQL脚本文件是数据库管理员和开发者日常工作中常见的一项任务。本文将深入探讨如何在.NET环境中高效地实现这一功能,并对比使用sqlcmd工具的方法。以下是一些关键知识点: 1. **SQL ...
批量 Update 是最原始的批量更新方法,每条记录执行一次 Update 语句,例如: ```sql update test_tbl set dr='2' where id=1; ``` 这种方法的性能非常差,例如更新 100000 条数据需要 15.557 秒。 方法二:...
总结,SQL Server数据库表结构对比工具是数据库管理员和开发人员的得力助手,它能够高效地定位并解决表结构差异,提高数据库管理效率,减少因结构不一致引发的问题。熟练掌握并运用这类工具,是提升数据库管理能力的...
在处理大量数据更新时,SQL Server 2005 的批量更新功能可以帮助提高执行效率。本文档详细介绍了如何有效利用 SQL Server 2005 的批量更新特性,并通过具体的示例来解决常见的性能瓶颈问题。 #### 二、使用 ...
这种方法通常涉及创建SQL INSERT语句,循环遍历数据源,并逐条执行这些语句。尽管这种方法直观易懂,但在处理大量数据时效率较低,因为它需要频繁地与数据库交互,每次只处理一行数据。在C#中,这可以通过ADO.NET的...
综上所述,SQL数据库对比工具是数据库管理员和开发人员的强大助手,它提高了工作效率,降低了出错的可能性,保证了数据库的准确性和一致性。通过使用像描述中提到的这样的工具,用户可以更有效地管理和维护他们的...
在实际应用中,使用【Sqlservler 数据库 字符串替换 批量替换】工具可以显著提高工作效率,减少手动操作带来的风险。但是,也需要注意,任何大规模的数据库操作都需要谨慎,务必在充分理解其工作原理和可能的影响后...
使用SQLSERVER数据库对比工具,不仅可以提升数据库管理的效率,还能减少因错误或不一致导致的问题,从而保证数据库系统的稳定运行。在日常工作中,定期进行数据库对比是维护数据一致性和完整性的关键步骤。因此,...
在SQL数据库管理中,批量导入数据是一项常见的任务,特别是在处理大量结构化数据时。"sql-数据批量导入"这个主题涉及到如何高效地将Excel(通常为.xlsx或.xls格式)文件中的数据导入到SQL数据库中。这里我们将深入...
描述中提到的“快速转换”和“快速导出sqlserver数据库数据到sqlite中”涉及到数据迁移的效率问题。这通常包括选择合适的工具、方法和策略来最小化迁移时间和数据丢失的风险。转换过程可能包括数据类型映射、表结构...
如果数据量庞大,考虑使用批量导入功能以提高效率。 6. **数据验证**:导入后,对比源和目标数据库中的数据,确保所有数据都被正确无误地迁移。 7. **错误处理和调试**:在迁移过程中可能会遇到各种问题,如数据...
MyBatis Plus 支持自定义 SQL,可以通过 `executeBatch()` 执行批量 SQL 语句,如 `INSERT INTO table (column1, column2) VALUES (?, ?), (?, ?), ...` 这种形式,适用于需要定制 SQL 的场景。 5. **分批次插入...
本话题聚焦于C语言如何实现SQLite的批量插入以及性能对比,这对于优化数据库操作效率具有深远意义。 首先,让我们详细探讨SQLite的单个插入与批量插入。在C语言中,SQLite提供了SQL接口,通过API函数来执行SQL语句...
通常,Hibernate以其对象关系映射(ORM)能力著称,允许开发者通过Java对象来操作数据库,但有时我们仍需直接执行SQL,特别是在处理复杂查询或者批量数据操作时。以下是如何利用Hibernate实现这一功能的方法: 1. *...
本篇文章将深入探讨如何在ThinkPHP中执行原生SQL语句,并对比`query()`和`execute()`这两个方法的使用场景和差异。 首先,执行原生SQL语句的方法通常涉及创建一个模型对象。在ThinkPHP中,你可以通过以下方式实例化...
SQL Server 2005是微软推出的一款企业级数据库管理系统,相较于其前一版本SQL Server 2000,它引入了许多新特性和增强功能,旨在提高数据库性能、安全性和管理效率。在本实验中,我们将深入探讨SQL Server 2005的...
为了直观地比较Int和GUID作为主键时的效率差异,我们进行了一项实验,使用SQL Server 2005环境,在Xeon 1.6GHz/2GB内存的服务器上执行测试。实验主要分为两个部分:一是批量插入100万条记录到不同的表中,二是插入1...
7. 脚本执行:SQL Editor支持运行SQL脚本文件,用户可以批量执行一组预定义的SQL命令,这对于数据库迁移或批量更新操作非常有用。 8. 其他实用工具:还包括数据库备份和恢复功能、性能分析工具、数据对比工具等,以...