- 浏览: 497242 次
- 性别:
- 来自: 北京
文章分类
- 全部博客 (301)
- Swing技术 (1)
- Linux (1)
- Javascript (22)
- 数据结构和算法 (3)
- J2SE (36)
- workflow (5)
- 设计模式 (14)
- web service (19)
- Ajax (14)
- 中间件 & 服务器 (8)
- 多线程 (9)
- Oracle (52)
- sys & soft (10)
- JMS (3)
- sso (9)
- android (11)
- struts2 (10)
- web协议 (2)
- 分布式 (2)
- PM (2)
- OLAP (3)
- Redis (2)
- Hibernate (7)
- ibatis (2)
- SQLServer (1)
- maven (3)
- Spring (7)
- Jsp (2)
- slf4j (1)
- jQuery (15)
- 权限 (1)
- 系统集成 (1)
- 笔记 (1)
- Freemarker (2)
- 项目管理 (1)
- eclipse (3)
- GIS (1)
- NoSql (3)
- win10 (1)
- win10网络 (2)
- 底层 (3)
- 数据库 (0)
最新评论
-
kabuto_v:
请问那种图,uml图是怎么画出来的呢?是您自己手工画的,还是有 ...
FastJSON 序列化、反序列化实现 -
梦行Monxin商城系统:
电商实例、业务并发、网站并发及解决方法 -
rockethj8:
client 㓟有一个参数是可以忽略一些URL 不进行验证登录 ...
SSO 之 (单点登录)实施中遇到的几个问题 -
mengxiangfeiyan:
好啊。。。。。
Oracle删除表,删除数据以及恢复数据、利用现有表创建新表
1、我做过的项目里有个与人民银行的数据交换,他们用的是分批次的纯文本(直接用c从数据库里导出来)。
譬如201003-1.txt,201003-2.txt...
每个文本控制在10M左右,ftp传输。
简单可靠。
2、(1)
优化前的语句:
Java代码
# Query_time: 5.967435 Lock_time: 0.000129 Rows_sent: 1 Rows_examined: 803401
SET timestamp=1286843575;
select livemessag0_.id as id38_, livemessag0_.isactive as isactive38_, livemessag0_.content as content38_, livemessag0_.createtime as createtime38_, livemessag0_.userid as userid38_, livemessag0_.objectid as objectid38_, livemessag0_.recordid as recordid38_, livemessag0_.type as type38_ from live_message livemessag0_ where (livemessag0_.objectid in (select livescrip1_.id from live_scrip livescrip1_ where livescrip1_.senderid='ff8080812aebac2d012aef6491b3666d')) and livemessag0_.type=2 limit 6;
优化后的语句:
Java代码
select livemessag0_.id as id38_,
livemessag0_.isactive as isactive38_,
livemessag0_.content as content38_,
livemessag0_.createtime as createtime38_,
livemessag0_.userid as userid38_,
livemessag0_.objectid as objectid38_,
livemessag0_.recordid as recordid38_,
livemessag0_.type as type38_
from live_scrip livescrip1_ left join
live_message livemessag0_
on livescrip1_.id=livemessag0_.objectid
where livescrip1_.senderid = 'ff8080812aebac2d012aef6491b3666d' and
livemessag0_.type = 2
limit 6;
总结:尽量少用子查询用表连接的方式代替(如果表连接不是太复杂的话),这样优化后大概能减少1/3的时间,后来发现livemessag0_.objectid竟然没有建立索引。
3、大数据量修改批量提交
博客分类: oracle
SQLBlog
引自:http://sunxboy.iteye.com/blog/153886
大数据量修改批量提交
例如: 原来的语句为
____DELETE FROM HUGETABLE WHERE condition;
可用如下语句代替:
____BEGIN
________LOOP
____________DELETE FROM HUGETABLE
____________WHERE condition
____________AND ROWNUM<10000;
____________EXIT WHEN SQL%NOTFOUND;
____________COMMIT;
________END LOOP;
____END;
譬如201003-1.txt,201003-2.txt...
每个文本控制在10M左右,ftp传输。
简单可靠。
2、(1)
优化前的语句:
Java代码
# Query_time: 5.967435 Lock_time: 0.000129 Rows_sent: 1 Rows_examined: 803401
SET timestamp=1286843575;
select livemessag0_.id as id38_, livemessag0_.isactive as isactive38_, livemessag0_.content as content38_, livemessag0_.createtime as createtime38_, livemessag0_.userid as userid38_, livemessag0_.objectid as objectid38_, livemessag0_.recordid as recordid38_, livemessag0_.type as type38_ from live_message livemessag0_ where (livemessag0_.objectid in (select livescrip1_.id from live_scrip livescrip1_ where livescrip1_.senderid='ff8080812aebac2d012aef6491b3666d')) and livemessag0_.type=2 limit 6;
优化后的语句:
Java代码
select livemessag0_.id as id38_,
livemessag0_.isactive as isactive38_,
livemessag0_.content as content38_,
livemessag0_.createtime as createtime38_,
livemessag0_.userid as userid38_,
livemessag0_.objectid as objectid38_,
livemessag0_.recordid as recordid38_,
livemessag0_.type as type38_
from live_scrip livescrip1_ left join
live_message livemessag0_
on livescrip1_.id=livemessag0_.objectid
where livescrip1_.senderid = 'ff8080812aebac2d012aef6491b3666d' and
livemessag0_.type = 2
limit 6;
总结:尽量少用子查询用表连接的方式代替(如果表连接不是太复杂的话),这样优化后大概能减少1/3的时间,后来发现livemessag0_.objectid竟然没有建立索引。
3、大数据量修改批量提交
博客分类: oracle
SQLBlog
引自:http://sunxboy.iteye.com/blog/153886
大数据量修改批量提交
例如: 原来的语句为
____DELETE FROM HUGETABLE WHERE condition;
可用如下语句代替:
____BEGIN
________LOOP
____________DELETE FROM HUGETABLE
____________WHERE condition
____________AND ROWNUM<10000;
____________EXIT WHEN SQL%NOTFOUND;
____________COMMIT;
________END LOOP;
____END;
发表评论
-
windows下oracle每天定时备份
2016-01-26 17:32 1469http://blog.csdn.net/jimmy609/ ... -
mysql用户管理和权限设置
2016-01-21 11:40 791http://www.cnblogs.com/fslnet ... -
SQL语句优化及原理
2016-01-14 16:14 905一、问题的提 ... -
Mysql日志操作 Windows下
2016-01-14 14:22 895日志文件类型概述: 1.错误日志 记录启动、运行或停 ... -
MongoDB专题、来源开发
2016-01-07 11:24 6611、maven+MongoDB+html5搭建的开源项目代 ... -
for update锁级别、存在的问题分析、for update of
2016-01-06 14:01 4031一、oracle默认在update ... -
oracle事务讲解、事务隔离级别实例
2016-01-06 13:47 1228今天温习oracle事务, ... -
oracle事务 set transaction readonly演示
2016-01-06 13:27 1153set transaction readonly 类似于S ... -
ORA-01034和ORA-27101的解决办法
2014-12-29 21:47 3382http://www.cnblogs.com/chuyu ... -
ORA-01207:文件比控制文件更新 - 旧的控制件
2014-12-20 09:06 1003ORA-01207:文件比控制文件更新 - 旧的控制件 ... -
大数据处理之 专题笔记
2014-05-11 19:11 9211、oracle分区技术、应用详解 http://wenku ... -
oracle 之 Orapwd命令
2014-05-01 13:32 1165数据库密码忘记后,需要修改密码。 在数据库没有启动之前,数据库 ... -
Oracle问题集 之 ORA-01261: Parameter db_recovery_file_dest destination string cannot
2014-05-01 13:18 7647我本机安装的数据库版 ... -
Oracle工具sql 之 查询用户所有表sql
2013-11-26 20:29 873热度 1已有 104 次阅读2012-11-22 09:53 ... -
Oracle开发与优化 之 数据完整性和锁机制
2013-10-08 22:14 963Oracle数据完整性和锁机制——《12年资深DBA教你Ora ... -
存储过程 之 调用实例
2013-10-07 23:29 0CREATE OR REPLACE PROCEDURE PRO ... -
sql 之 distinct
2013-08-17 00:03 872distinct这个关键字用来 ... -
oracle、sqlserver语法区别一
2013-08-16 15:18 1037MySql: MySQL数据库实现分页比较简单,提供了 LIM ... -
提高数据库查询速度一
2013-06-02 23:50 9371、缓存,在持久层或持久层之上做缓存。 2、数据库表的大 ... -
oracle海量数量一
2013-05-29 23:57 922目录: Oracle数据完整性和锁机制 索引及优化之表分析 ...
相关推荐
_mysql 千万级数据优化_ MySQL 是一种流行的开源关系数据库管理系统,在大规模数据处理中,MySQL 的性能优化变得非常重要。下面我们将从查询优化和 SQL 编写注意事项两个方面来讨论 MySQL 千万级数据优化。 查询...
在这个“sqlite数据库大数据量处理demo”中,我们将深入探讨如何在SQLite数据库中有效地管理大规模数据。 SQLite支持SQL标准,包括创建表、插入数据、更新数据、删除数据以及查询数据等基本操作。对于大数据量的...
本文将分享一位开发者针对SqlSever2005一千万条以上记录的分页数据库优化经验,包括索引优化和代码优化,帮助读者理解如何应对大规模数据处理中的性能瓶颈。 首先,当数据量达到千万级别时,数据库的性能表现将直接...
总的来说,利用SQL Server的存储过程进行千万级数据分页查询,结合合理的索引策略和优化技巧,能够有效提升查询性能,降低系统负载,为用户提供流畅的浏览体验。请参考“分页.txt”和“使用方法.txt”文件,了解更多...
在MySQL数据库管理中,优化大型数据表以提升性能至关重要,特别是面对千万级的数据量。以下是一些关键的数据库优化策略: 1. **索引优化**:避免全表扫描是首要原则,应该在`WHERE`子句和`ORDER BY`涉及的列上创建...
对于处理千万级数据量的MySQL数据库,以下是一些关键的优化方法和策略: 1. **索引优化**:索引是提升查询速度的关键。应优先在`WHERE`子句和`ORDER BY`涉及的列上创建索引,以减少全表扫描。避免使用`NULL`值,...
在MySQL数据库中,管理和优化千万级的数据量是一项挑战。以下是一些关键的优化策略和技巧,旨在提高查询性能和整体数据库效率: 1. **索引优化**:索引是提升查询速度的关键。在经常用于`WHERE`和`ORDER BY`子句的...
本实例聚焦于“java实现csv导出千万级数据实例”,旨在提供一个高效、稳定的解决方案,避免因数据量过大而导致的性能问题,如Java中的栈溢出(Stack Overflow)。CSV(Comma Separated Values)格式因其简单、通用性...
### 实现千万级数据的分页显示 在处理大规模数据集时,如何高效地进行分页显示成为了一个关键的技术挑战。传统的分页方法在面对数百万甚至上千万的数据记录时,往往会出现性能瓶颈,导致用户体验下降。本文将详细...
### 处理百万级以上的数据提高查询速度的方法 在处理大量数据时,如何优化SQL查询以提高查询效率是一项至关重要的技能。以下是从标题、描述、标签以及部分内容中提炼出的关键知识点,这些技巧可以帮助你在面对海量...
在处理千万级别的MySQL数据库时,优化数据库性能至关重要。以下是一些关键的优化策略和技术: 1. **使用索引**:创建合适的索引可以显著提升查询速度。在`WHERE`子句和`ORDER BY`涉及的列上建立索引,避免全表扫描...
- **管理大数据量**:通过优化存储结构和索引技术,实现对PB级别数据的有效管理。 - **管理各种用户请求**:无论是简单查询还是复杂分析任务,Oracle数据仓库都能高效处理。 - **查询快速响应**:利用先进的查询优化...
### 千万级数据库快速查询解决方案 在处理大规模数据时,如何高效地进行查询与管理是每个数据库系统都需要面对的问题。本文将针对“千万级数据库快速查询解决方案”这一主题进行深入探讨,旨在提供一系列实用的方法...
### MySQL 百万级分页优化(Mysql千万级快速分页) #### 背景与挑战 在处理大规模数据集时,例如拥有数百万乃至数千万条记录的数据库表,传统的分页查询方法可能会遇到性能瓶颈。特别是使用`LIMIT`进行分页时,随着...
在处理千万级甚至过亿数据规模的...综上所述,处理千万级数据规模的关键在于合理规划数据结构,优化查询策略,以及充分利用索引和预处理技术。通过这些方法,可以有效地管理和优化大规模数据,实现高效的数据处理。
在处理千万级数据时,通常需要考虑数据库的设计、索引优化、SQL查询效率等因素,以确保系统的高效运行。 ShardingJDBC是阿里巴巴开源的轻量级Java框架,用于实现数据库分片。它的核心功能是将一个大表水平分割成多...
SQL(Structured Query Language)是数据库管理和查询的核心工具,尤其在面对千万级别的数据量时,高效的SQL语句优化显得至关重要。本资料包“2023年SQL语句千万万数据量优化方案-架构与开发”旨在提供一套全面的...
MySQL千万级大数据SQL查询优化技巧详解 在处理大数据量的MySQL数据库时,高效的SQL查询显得尤为重要。以下是一些关键的优化技巧,可以帮助你提升查询性能,避免全表扫描,充分利用索引,以及优化查询逻辑: 1. **...