- 浏览: 169327 次
- 性别:
- 来自: 郑州
文章分类
最新评论
-
还有也许:
chinahezhiyongpLR8ZC-855575-605 ...
MyEclipse 6.0的注册码 -
lku1314:
好文 标记下! 但是还是有点犹豫 要不要这么做
Hibernate 动态映射表的两种策略 -
还有也许:
我都想不明白了,为啥都是
oooO ↘┏━┓ ↙ Oooo ...
MyEclipse6.0 安装svn插件 -
还有也许:
我本来也想用的,但是找不到下载插件的地方,so.....
MyEclipse6.0 安装svn插件 -
kissroom112:
不如用插件式的安装方法http://kissroom112.i ...
MyEclipse6.0 安装svn插件
问题描述:在我们数据中由于是根据当时的情况对客户表和客户分类表新增一个中间,又因为是中期新增,所以中间表的建表结构是将客户表的ID和客户分组表的ID分别写入到中间表里面,这样中间表就有三个字段主键客户表ID客户分组表ID,当时由于数据量大处理不过来所以没有建立级联,在客户表里面有许多导入数据的功能,也有删除数据的功能由于删除和导入操作频繁没有管理中间表的空间,致使中间表荣升到数据库第一大表快超过1达到1千万数据,苦于找方法瘦身,就找到了中间表的内容,删除当时删除客户资料没有删除中间表数据的内容:就有了以下的解决方案:
利用sql语句删除:delete from m_customer_category where customer_sid_fk not in(select customer_sid from customer);
由于customer表中的数据是680W,m_customer_category表数据是890w,上面的一条语句在服务器上执行了 3个小时后没有任何反应state状态是end一直是这样的情况,所以放弃没有进行删除。
第二次删除数据又想想利用存储过程删除也想就会快点所以就找相关的资料写存储过程,如下:
create procedure del()
begin
declare coun1 int;
select count(*) into coun1 from m_customer_category where customer_sid_fk not in(select customer_sid from customer);
while coun1 > 0 do
delete from m_customer_category where customer_sid_fk not in(select customer_sid from customer) limit 10000;
commit;
set coun1=coun1-10000;
end while;
end
因为在本机上数据比服务器上的数据少了很多,在本机上可以正常执行就是没什么输出,数据也删除,本以为可以执行,可是在第二次晚上更新的时候还是如上的情况还是没有反应,在执行过2个小时后我又放弃了。
查找原因可能是数据量大并且建立有所以,所以造成批量删除并没什么效果,再次思考能不能做单个删除,也就是说找到一条记录的ID后在根据Id删除数据,在利用存储过程在循环中删除数据应该就没有问题了,所以做了如下修改:
我将符合条件的数据的id都查找出来放到一张自己新建立的临时表里面如下语句:
insert into m_customer_category_back (select id from m_customer_category where customer_sid_fk not in(select customer_sid from customer));
表中是建立索引的所以执行查询的时候是不会很慢的,我是看中他的查询条件才这样操作的,数据很快20多分钟就执行完了130+W数据,这下好了,修改下存储过程就可以实现单条删除数据了,根据这些条件即时不关闭数据的情况也可以正常的删除数据存储过程如下:
begin
declare coun1 int;
declare count2 int;
select count(*) into coun1 from m_customer_category_back limit 300000;
while coun1 > 0 do
select id into count2 from m_customer_category_back LIMIT 1;
delete from m_customer_category where id = count2;
delete from m_customer_category_back where id=count2;
SELECT '删除一条'+count2;
commit;
set coun1=coun1-1;
end while;
end
由于害怕服务器长时间造成占用时间过程所以在查询的时候做了小小的修改也就是说我调用一次这个存储过程的时候只删除30w数据。基本告一段落如果有数据偶尔执行一下就好了有输出,删除数据不是很快但也很有效果,也不影响业务的正常使用。
评论
估计你按客户类型查客户资料的语句会类似如下:
select * from customer c
inner join m_customer_category m on c.customerId=m.customerId
inner join category cg on cg.categoryId=m.categoryId
where cg.category categoryName ='xxx';
为了配合这个查询,有几个地方是要家索引的:
customer上: key(customerId)
m_customer_category上: 索引key(categoryId)
category上: key(categoryName)
如果你的category表数据只有那么几行,或者很少,估计你查出来的结果集会相当大,注意加limit。
--------------------
如果以上不行的话,贴出你的sql执行计划: explain select ***.. ,以及你们目前的索引和表结构: show index from tablexxx; show create table xxx; 一起研究下如何。
我也谈谈我们的经验,不是删除无效数据,而是创建新表,获取有效数据:
1. 或者凌晨找个时间禁止写入, flush tables with read lock;
2. 然后创建一个m_customer_category_new新表, 分好区partition by xxx
3. 用java多线程程序,把m_customer_category中有效数据用多线程程序插入进去,每个区1个线程,速度会很快。(在我们的项目innodb上,每秒插入1万条左右)
4. 数据准备好以后,再创建索引(无索引的表,插入操作比有索引的快很多)
5. 将原来的表干掉,新表rename
6. 最后再把lock取消, unlock tables;
这样分区优化也做了,数据也删除了。
我真的不明白你们为什么一定要使用多对多的关系,现在你的数据量已经达到这种级别了,你可以考虑第一、使用分区分表;第二、引入Lucene,将客户资料的搜索交给全文索引来处理,他可以解决你搜索的性能。如果对实时性要求很高的话,你可以使用Lucene3.0,Lucene2.0不支持实时索引。
分区分表已经晚了吧,这是在规划项目时考虑好的,第二种很实用,我去学习一下Lucene的使用。
所以在删除的时候是否可以考虑让被删除的表不支持事务,不记log。
否则只能想办法小批量删除提交,不要在一个大事务里面做。
其实你也可以考虑用jdbc把要删除的id查出来,然后批量删除。也许这样会更快,我这边就有类似的功能,也是几百万数据量,直接用sql还没有用jdbc查出来删除快。
我真的不明白你们为什么一定要使用多对多的关系,现在你的数据量已经达到这种级别了,你可以考虑第一、使用分区分表;第二、引入Lucene,将客户资料的搜索交给全文索引来处理,他可以解决你搜索的性能。如果对实时性要求很高的话,你可以使用Lucene3.0,Lucene2.0不支持实时索引。
至少在db2和mysql下delete基本属于噩梦.
truncate ,load replace之类的命令还是比较适合你的 .
当然,如果有分区表的话可以考虑drop Partation一类的指令.
2.查询需要删除的数据的sql,不会变成这个case的性能瓶颈。
3.如果选择用存储过程的话,就要减少 pl/sql引擎 和 sql引擎的切换。
一看就是高手,能不能给小弟详细说个例子呢?
我才入门呢,我在前面 写了一个存储过程的。楼主没看见?
2.查询需要删除的数据的sql,不会变成这个case的性能瓶颈。
3.如果选择用存储过程的话,就要减少 pl/sql引擎 和 sql引擎的切换。
一看就是高手,能不能给小弟详细说个例子呢?
2.查询需要删除的数据的sql,不会变成这个case的性能瓶颈。
3.如果选择用存储过程的话,就要减少 pl/sql引擎 和 sql引擎的切换。
declare
type id_tab is table of varchar2(20);
customers id_tab;
cursor c_delete is
select id
from m_customer_category
where customer_sid_fk
not in(select customer_sid from customer);
begin
open c_delete;
loop
fetch c_delete bulk collect into customers limit 10000;
forall i in customers.first .. customers.last
delete m_customer_category a where a.id = customers(i);
commit;
exit when customers.count() = 0;
end loop;
close c_delete;
end;
补补吧
你这是基本的SQL问题
换成如下语句试试:
delete from m_customer_category where not exists(select 1 from customer where m_customer_category.customer_sid_fk=customer_sid)
如果需要花费的时间还是很长,你可以将m_customer_category中的数据分成10次来执行。
如:delete from m_customer_category where ID>=1000000 and ID <200000 not exists(select 1 from customer where m_customer_category.customer_sid_fk=customer_sid)
这样基本可以解决你的问题。
这个是正解
in 是不走索引的,所以非常慢
你这是基本的SQL问题
换成如下语句试试:
delete from m_customer_category where not exists(select 1 from customer where m_customer_category.customer_sid_fk=customer_sid)
如果需要花费的时间还是很长,你可以将m_customer_category中的数据分成10次来执行。
如:delete from m_customer_category where ID>=1000000 and ID <200000 not exists(select 1 from customer where m_customer_category.customer_sid_fk=customer_sid)
这样基本可以解决你的问题。
发表评论
-
设置Mysql允许其他电脑访问
2012-10-17 17:06 1048最方便的方法:改表法 将user表中的host改为'%'。 ... -
mysql 慢查询配置
2012-09-29 10:35 10351、需要更改的配置文件 ... -
Oracle 中的Decode 函数用法
2011-09-27 16:28 879DECODE函数的作用:它可以将输入数值与函数中的参数列表相 ... -
PLSQL 远程连接数据库
2011-08-27 17:51 955打开Oracle安装目录下的NETWORK\ADMIN 下的t ... -
SQL学习笔记
2011-06-14 20:04 952学习来源:http://sql.1keydata.com/cn ... -
mysql分表的3种方法
2011-01-28 17:01 972一,先说一下为什么要 ... -
mysql下导出部分数据
2011-01-11 11:03 924首先进入mysql安装路径下的bin目录。 window 平 ... -
mysql数据库设置外键应该注意的几点
2010-12-23 23:24 16761、表的引擎必须是InnoDB; 2、添加外键的字段必须是添 ... -
关于mysql千万级数据的查询
2010-12-21 09:31 93041.mysql的数据查询,大小字段要分开,这个还是有必要的,除 ... -
mysql 只导出表结构
2010-11-09 15:01 1794首先通过运行窗口进入到安装的mysql服务器的bin目录下。 ... -
mysql中查看和删除索引信息
2010-09-28 11:13 1372SHOW INDEX FROM tbl_name [FROM ... -
索引介绍和各种索引解释以及创建语句
2010-09-25 11:47 863一、各种索引介绍: 1 ... -
mysql 常用命令
2010-04-12 16:44 739MySQL常用命令 一、连接 ... -
在Linux平台下安装Mysql
2010-04-08 09:23 794安装MySQL 好,我们可以开始正式的安装了。假设你把所有必 ... -
MySQL不允许远程访问的问题
2010-02-24 09:51 6891、改表法。可能是你的帐号不允许从远程登陆,只能在localh ...
相关推荐
本文将详细介绍使用Ormlite实现Android数据库升级而不丢失数据的解决方案。 首先,我们需要了解Ormlite的基本用法。Ormlite提供了强大的注解系统,允许我们将Java对象映射到数据库表,反之亦然。通过在Java类上添加...
此外,NetApp的解决方案还支持向上扩展和向外扩展,以满足企业对TB级大型SQL Server数据库的需求,并通过整合SQL Server数据和删除未使用的存储空间来降低总体成本。 NetApp的解决方案还具有自动化数据管理功能,能...
9. **Sybase文档和社区资源**:如果以上方法都无法解决问题,查阅Sybase的官方文档或在线社区(如Sybase论坛)的讨论,看看是否有类似问题的解决方案。 10. **技术支持**:如果问题仍然存在,考虑联系Sybase的技术...
- 提供的博客链接虽然在描述中为空,但在实际情况下,它可能会指向一个详细的教程或解决方案,解释了如何实现标题中描述的功能。通过阅读这篇博客,可以获取更深入的指导和示例代码。 以上就是从标题和描述中推断...
本模块基于Node.js实现了对MySQL数据库的封装,利用了mysql连接池来优化性能,并且包含了用于测试的百万级数据,确保了在大数据量场景下的稳定性和效率。以下将详细介绍该模块的关键知识点: 1. **Node.js与MySQL**...
远程数据访问是现代计算机系统中一个重要的组成部分,...ADO提供了与数据源交互的基础,而RDS则为三层架构提供了灵活和高效的解决方案。通过掌握这些技术,开发者可以构建出能够在网络环境下有效工作的数据库应用程序。
总的来说,N11数据库管理工具是Windows 10用户的一款强大武器,它涵盖了数据库管理的各个方面,提供了全面而便捷的解决方案,无论是日常的数据操作,还是复杂的数据库设计和优化工作,都能游刃有余。如果你还没尝试...
在IT领域,数据库同步是一个常见的需求,特别是在分布式系统或者数据备份与恢复的场景下。这里的“同步两个数据库的数据”指的是确保两个数据库中...而“SynOTEXAM”代码提供了这样一个解决方案,值得深入研究和学习。
脏数据通常指的是数据库中已删除的记录对应的图片仍然存在,或者图片已被删除但数据库中仍有相关记录。这种不一致会增加存储负担,并可能导致资源浪费和用户体验下降。 为了解决这一问题,一种有效的策略是将图片...
在使用Django进行Web应用开发的过程中,我们可能会遇到需要对数据库结构进行修改的情况,例如,添加新的字段、删除旧的表或者更改字段的数据类型等。这时,需要借助Django的迁移系统来同步数据库结构的变化。但是,...
数据库双机热备解决方案是针对医疗机构信息化中数据安全的重要措施,由于医院的运营越来越依赖于信息系统,特别是HIS(医院信息系统)中的大量业务数据成为医院的核心资源。然而,数据丢失、硬件故障、病毒感染和...
- **产品定位**:作为企业级数据库安全解决方案,该系统旨在提供深度的数据库活动监控,帮助企业构建强大的数据防护体系。 - **功能简介**: - **访问控制**:对数据库用户的权限进行精细化管理,限制不必要或...
本文档介绍了博睿勤数据库审计系统解决专项方案Vdec.docx,该方案旨在提供一个全面、可靠、可扩展的数据库审计系统解决方案,以满足企业对数据库安全、合规性和风险管理的需求。 数据库审计系统的必要性 随着数据...
一、数据库搭建 1、yum 指定目录安装 https://blog.csdn.net/llwy1428/article/details/105143053 2、yum 直接安装 https://blog.csdn.net/llwy1428/article/details/102486414 3、编译安装 ...4、PostgreSql 基本操作 ...
2. 添加SQLite连接:在解决方案资源管理器中右键点击项目,选择“添加”>“新项”,然后在模板列表中找到“数据”类别,选择“ADO.NET实体数据模型”。 3. 选择数据库类型:在数据模型向导中,选择“空数据库”并...
理解它们的设计理念和适用场景,以及与传统关系型数据库的对比,有助于选择合适的解决方案。 课件中的ppt文件(如addb3.ppt至addb15.ppt)可能详细讲解了以上这些主题,每个文件可能对应一个或多个专题,涵盖了理论...
数据库进程间通信解决方案是针对数据库系统与其他第三方应用程序之间需要实时同步数据或触发特定操作的场景。传统的查询方式可能无法满足这种实时性需求,因此需要设计一种机制,使得数据库能够主动通知其他进程数据...
Sinoblu数据库审计解决方案是北京中科蓝云科技有限公司推出的一款专注信息安全审计的产品,主要用于数据库的监控和保护。该系统通过实时监测系统安全事件、用户访问行为以及数据库操作结果,进行分析、过滤和告警...