`
baobeituping
  • 浏览: 1068016 次
  • 性别: Icon_minigender_1
  • 来自: 长沙
社区版块
存档分类
最新评论

sqlserve2000 关于100万数据查询优化

 
阅读更多

探讨怎么在有着1000万条数据的ms sql server数据库中实现快速的数据提取和数据分页。以下代码说明了我们实例中数据库的“红头文件”一表的部分数据结构:

create table [dbo].[tgongwen] ( --tgongwen是红头文件表名

[gid] [int] identity (1, 1) not null ,
--本表的id号,也是主键

[title] [varchar] (80) collate chinese_prc_ci_as null ,
--红头文件的标题

[fariqi] [datetime] null ,
--发布日期

[neibuyonghu] [varchar] (70) collate chinese_prc_ci_as null ,
--发布用户

[reader] [varchar] (900) collate chinese_prc_ci_as null ,

--需要浏览的用户。每个用户中间用分隔符“,”分开

) on [primary] textimage_on [primary]

go


  下面,我们来往数据库中添加1000万条数据:

declare @i int

set @i=1

while @i<=250000

begin

insert into tgongwen(fariqi,neibuyonghu,reader,title) values(2004-2-5,通信科,通信科,办公室,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支队,户政科,治安支队,外事科,这是最先的25万条记录)

set @i=@i+1

end

go



declare @i int

set @i=1

while @i<=250000

begin

insert into tgongwen(fariqi,neibuyonghu,reader,title) values(2004-9-16,办公室,办公室,通信科,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支队,户政科,外事科,这是中间的25万条记录)

set @i=@i+1

end

go



declare @h int

set @h=1

while @h<=100

begin

declare @i int

set @i=2002

while @i<=2003

begin

declare @j int

set @j=0

while @j<50

begin

declare @k int

set @k=0

while @k<50

begin

insert into tgongwen(fariqi,neibuyonghu,reader,title) values(cast(@i as varchar(4))+-8-15 3:+cast(@j as varchar(2))+:+cast(@j as varchar(2)),通信科,办公室,通信科,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支队,户政科,外事科,这是最后的50万条记录)

set @k=@k+1

end

set @j=@j+1

end

set @i=@i+1

end

set @h=@h+1

end

go



declare @i int

set @i=1

while @i<=9000000

begin

insert into tgongwen(fariqi,neibuyonghu,reader,title) values(2004-5-5,通信科,通信科,办公室,王局长,刘局长,张局长,admin,刑侦支队,特勤支队,交巡警支队,经侦支队,户政科,治安支队,外事科,这是最后添加的900万条记录)

set @i=@i+1000000

end

go

通过以上语句,我们创建了25万条由于2004年2月5日发布的记录,25万条由办公室于2004年9月6日发布的记录,2002年和2003年各100个2500条相同日期、不同分秒的记录(共50万条),更有由通信科于2004年5月5日发布的900万条记录,合计1000万条。

一、因情制宜,建立“适当”的索引

  建立“适当”的索引是实现查询优化的首要前提。

  索引(index)是除表之外另一重要的、用户定义的存储在物理介质上的数据结构。当根据索引码的值搜索数据时,索引提供了对数据的快速访问。事实上,没有索引,数据库也能根据select语句成功地检索到结果,但随着表变得越来越大,使用“适当”的索引的效果就越来越明显。注意,在这句话中,我们用了“适当”这个词,这是因为,如果使用索引时不认真考虑其实现过程,索引既能提高也会破坏数据库的工作性能。

  (一)深入浅出理解索引结构

  实际上,你能把索引理解为一种特别的目录。微软的sql server提供了两种索引:聚集索引(clustered index,也称聚类索引、簇集索引)和非聚集索引(nonclustered index,也称非聚类索引、非簇集索引)。下面,我们举例来说明一下聚集索引和非聚集索引的差别:

  其实,我们的汉语字典的正文本身就是个聚集索引。比如,我们要查“安”字,就会非常自然地翻开字典的前几页,因为“安”的拼音是“an”,而按照拼音排序汉字的字典是以英文字母“a”开头并以“z”结尾的,那么“安”字就自然地排在字典的前部。如果你翻完了所有以“a”开头的部分仍然未找到这个字,那么就说明你的字典中没有这个字;同样的,如果查“张”字,那你也会将你的字典翻到最后部分,因为“张”的拼音是“zhang”。也就是说,字典的正文部分本身就是个目录,你不必再去查其他目录来找到你需要找的内容。

  我们把这种正文内容本身就是一种按照一定规则排列的目录称为“聚集索引”。

  如果你认识某个字,你能快速地从自动中查到这个字。但你也可能会遇见你不认识的字,不知道他的发音,这时候,你就不能按照刚才的方法找到你要查的字,而需要去根据“偏旁部首”查到你要找的字,然后根据这个字后的页码直接翻到某页来找到你要找的字。但你结合“部首目录”和“检字表”而查到的字的排序并不是真正的正文的排序方法,比如你查“张”字,我们能看到在查部首之后的检字表中“张”的页码是672页,检字表中“张”的上面是“驰”字,但页码却是63页,“张”的下面是“弩”字,页面是390页。非常显然,这些字并不是真正的分别位于“张”字的上下方,目前你看到的连续的“驰、张、弩”三字实际上就是他们在非聚集索引中的排序,是字典正文中的字在非聚集索引中的映射。我们能通过这种方式来找到你所需要的字,但他需要两个过程,先找到目录中的结果,然后再翻到你所需要的页码。

  我们把这种目录纯粹是目录,正文纯粹是正文的排序方式称为“非聚集索引”。

  通过以上例子,我们能理解到什么是“聚集索引”和“非聚集索引”。

  进一步引申一下,我们能非常容易的理解:每个表只能有一个聚集索引,因为目录只能按照一种方法进行排序。

(二)何时使用聚集索引或非聚集索引

  下面的表总结了何时使用聚集索引或非聚集索引(非常重要)。

  动作描述
   使用聚集索引
   使用非聚集索引

  列经常被分组排序
   应
   应

  返回某范围内的数据
   应
   不应

  一个或极少不同值
   不应
   不应

  小数目的不同值
   应
   不应

  大数目的不同值
   不应
   应

  频繁更新的列
   不应
   应

  外键列
   应
   应

  主键列
   应
   应

  频繁修改索引列
   不应
   应


  事实上,我们能通过前面聚集索引和非聚集索引的定义的例子来理解上表。如:返回某范围内的数据一项。比如你的某个表有一个时间列,恰好你把聚合索引建立在了该列,这时你查询2004年1月1日至2004年10月1日之间的全部数据时,这个速度就将是非常快的,因为你的这本字典正文是按日期进行排序的,聚类索引只需要找到要检索的所有数据中的开头和结尾数据即可;而不像非聚集索引,必须先查到目录中查到每一项数据对应的页码,然后再根据页码查到具体内容。

(三)结合实际,谈索引使用的误区

  理论的目的是应用。虽然我们刚才列出了何时应使用聚集索引或非聚集索引,但在实践中以上规则却非常容易被忽视或不能根据实际情况进行综合分析。下面我们将根据在实践中遇见的实际问题来谈一下索引使用的误区,以便于大家掌控索引建立的方法。

  1、主键就是聚集索引

  这种想法笔者认为是极端错误的,是对聚集索引的一种浪费。虽然sql server默认是在主键上建立聚集索引的。

  通常,我们会在每个表中都建立一个id列,以区分每条数据,并且这个id列是自动增大的,步长一般为1。我们的这个办公自动化的实例中的列gid就是如此。此时,如果我们将这个列设为主键,sql server会将此列默认为聚集索引。这样做有好处,就是能让你的数据在数据库中按照id进行物理排序,但笔者认为这样做意义不大。

  显而易见,聚集索引的优势是非常明显的,而每个表中只能有一个聚集索引的规则,这使得聚集索引变得更加珍贵。

  从我们前面谈到的聚集索引的定义我们能看出,使用聚集索引的最大好处就是能够根据查询需求,迅速缩小查询范围,避免全表扫描。在实际应用中,因为id号是自动生成的,我们并不知道每条记录的id号,所以我们非常难在实践中用id号来进行查询。这就使让id号这个主键作为聚集索引成为一种资源浪费。其次,让每个id号都不同的字段作为聚集索引也不符合“大数目的不同值情况下不应建立聚合索引”规则;当然,这种情况只是针对用户经常修改记录内容,特别是索引项的时候会负作用,但对于查询速度并没有影响。

  在办公自动化系统中,无论是系统首页显示的需要用户签收的文件、会议还是用户进行文件查询等所有情况下进行数据查询都离不开字段的是“日期”更有用户本身的“用户名”。

  通常,办公自动化的首页会显示每个用户尚未签收的文件或会议。虽然我们的where语句能仅仅限制当前用户尚未签收的情况,但如果你的系统已建立了非常长时间,并且数据量非常大,那么,每次每个用户打开首页的时候都进行一次全表扫描,这样做意义是不大的,绝大多数的用户1个月前的文件都已浏览过了,这样做只能徒增数据库的开销而已。事实上,我们完万能让用户打开系统首页时,数据库仅仅查询这个用户近3个月来未阅览的文件,通过“日期”这个字段来限制表扫描,提高查询速度。如果你的办公自动化系统已建立的2年,那么你的首页显示速度理论上将是原来速度8倍,甚至更快。

  在这里之所以提到“理论上”三字,是因为如果你的聚集索引还是盲目地建在id这个主键上时,你的查询速度是没有这么高的,即使你在“日期”这个字段上建立的索引(非聚合索引)。下面我们就来看一下在1000万条数据量的情况下各种查询的速度表现(3个月内的数据为25万条):

  (1)仅在主键上建立聚集索引,并且不划分时间段:

select gid,fariqi,neibuyonghu,title from tgongwen

  用时:128470毫秒(即:128秒)

  (2)在主键上建立聚集索引,在fariq上建立非聚集索引:

select gid,fariqi,neibuyonghu,title from tgongwen

where fariqi> dateadd(day,-90,getdate())

  用时:53763毫秒(54秒)

  (3)将聚合索引建立在日期列(fariqi)上:

select gid,fariqi,neibuyonghu,title from tgongwen

where fariqi> dateadd(day,-90,getdate())

  用时:2423毫秒(2秒)

  虽然每条语句提取出来的都是25万条数据,各种情况的差异却是巨大的,特别是将聚集索引建立在日期列时的差异。事实上,如果你的数据库真的有1000万容量的话,把主键建立在id列上,就像以上的第1、2种情况,在网页上的表现就是超时,根本就无法显示。这也是我摒弃id列作为聚集索引的一个最重要的因素。

  得出以上速度的方法是:在各个select语句前加:declare @d datetime

set @d=getdate()

并在select语句后加:

select [语句执行花费时间(毫秒)]=datediff(ms,@d,getdate())

  2、只要建立索引就能显著提高查询速度

  事实上,我们能发现上面的例子中,第2、3条语句完全相同,且建立索引的字段也相同;不同的仅是前者在fariqi字段上建立的是非聚合索引,后者在此字段上建立的是聚合索引,但查询速度却有着天壤之别。所以,并非是在所有字段上简单地建立索引就能提高查询速度。

  从建表的语句中,我们能看到这个有着1000万数据的表中fariqi字段有5003个不同记录。在此字段上建立聚合索引是再合适不过了。在现实中,我们每天都会发几个文件,这几个文件的发文日期就相同,这完全符合建立聚集索引需求的:“既不能绝大多数都相同,又不能只有极少数相同”的规则。由此看来,我们建立“适当”的聚合索引对于我们提高查询速度是非常重要的。

  3、把所有需要提高查询速度的字段都加进聚集索引,以提高查询速度

  上面已谈到:在进行数据查询时都离不开字段的是“日期”更有用户本身的“用户名”。既然这两个字段都是如此的重要,我们能把他们合并起来,建立一个复合索引(compound index)。

  非常多人认为只要把所有字段加进聚集索引,就能提高查询速度,也有人感到迷惑:如果把复合的聚集索引字段分开查询,那么查询速度会减慢吗?带着这个问题,我们来看一下以下的查询速度(结果集都是25万条数据):(日期列fariqi首先排在复合聚集索引的起始列,用户名neibuyonghu排在后列)

  (1)select gid,fariqi,neibuyonghu,title from tgongwen where fariqi>2004-5-5

  查询速度:2513毫秒

  (2)select gid,fariqi,neibuyonghu,title from tgongwen where fariqi>2004-5-5 and neibuyonghu=办公室

  查询速度:2516毫秒

  (3)select gid,fariqi,neibuyonghu,title from tgongwen where neibuyonghu=办公室

  查询速度:60280毫秒

  从以上试验中,我们能看到如果仅用聚集索引的起始列作为查询条件和同时用到复合聚集索引的全部列的查询速度是几乎相同的,甚至比用上全部的复合索引列还要略快(在查询结果集数目相同的情况下);而如果仅用复合聚集索引的非起始列作为查询条件的话,这个索引是不起所有作用的。当然,语句1、2的查询速度相同是因为查询的条目数相同,如果复合索引的所有列都用上,而且查询结果少的话,这样就会形成“索引覆盖”,因而性能能达到最优。同时,请记住:无论你是否经常使用聚合索引的其他列,但其前导列一定要是使用最频繁的列。

(四)其他书上没有的索引使用经验总结

  1、用聚合索引比用不是聚合索引的主键速度快

  下面是实例语句:(都是提取25万条数据)

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16

  使用时间:3326毫秒

select gid,fariqi,neibuyonghu,reader,title from tgongwen where gid<=250000

  使用时间:4470毫秒

  这里,用聚合索引比用不是聚合索引的主键速度快了近1/4。

  2、用聚合索引比用一般的主键作order by时速度快,特别是在小数据量情况下

select gid,fariqi,neibuyonghu,reader,title from tgongwen order by fariqi

  用时:12936

select gid,fariqi,neibuyonghu,reader,title from tgongwen order by gid

  用时:18843

  这里,用聚合索引比用一般的主键作order by时,速度快了3/10。事实上,如果数据量非常小的话,用聚集索引作为排序列要比使用非聚集索引速度快得明显的多;而数据量如果非常大的话,如10万以上,则二者的速度差别不明显。

  3、使用聚合索引内的时间段,搜索时间会按数据占整个数据表的百分比成比例减少,而无论聚合索引使用了多少个

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi>2004-1-1

  用时:6343毫秒(提取100万条)

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi>2004-6-6

  用时:3170毫秒(提取50万条)

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16

  用时:3326毫秒(和上句的结果一模相同。如果采集的数量相同,那么用大于号和等于号是相同的)

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi>2004-1-1 and fariqi<2004-6-6

  用时:3280毫秒

  4 、日期列不会因为有分秒的输入而减慢查询速度

  下面的例子中,共有100万条数据,2004年1月1日以后的数据有50万条,但只有两个不同的日期,日期精确到日;之前有数据50万条,有5000个不同的日期,日期精确到秒。

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi>2004-1-1 order by fariqi

  用时:6390毫秒

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi<2004-1-1 order by fariqi

  用时:6453毫秒

  (五)其他注意事项

  “水可载舟,亦可覆舟”,索引也相同。索引有助于提高检索性能,但过多或不当的索引也会导致系统低效。因为用户在表中每加进一个索引,数据库就要做更多的工作。过多的索引甚至会导致索引碎片。

  所以说,我们要建立一个“适当”的索引体系,特别是对聚合索引的创建,更应精益求精,以使你的数据库能得到高性能的发挥。

  当然,在实践中,作为一个尽职的数据库管理员,你还要多测试一些方案,找出哪种方案效率最高、最为有效。

二、改善sql语句

  非常多人不知道sql语句在sql server中是怎么执行的,他们担心自己所写的sql语句会被sql server误解。比如:

select * from table1 where name=zhangsan and tid > 10000

  和执行:

select * from table1 where tid > 10000 and name=zhangsan

  一些人不知道以上两条语句的执行效率是否相同,因为如果简单的从语句先后上看,这两个语句的确是不相同,如果tid是个聚合索引,那么后一句仅仅从表的10000条以后的记录中查找就行了;而前一句则要先从全表中查找看有几个name=zhangsan的,而后再根据限制条件条件tid>10000来提出查询结果。

  事实上,这样的担心是不必要的。sql server中有一个“查询分析优化器”,他能计算出where子句中的搜索条件并确定哪个索引能缩小表扫描的搜索空间,也就是说,他能实现自动优化。

  虽然查询优化器能根据where子句自动的进行查询优化,但大家仍然有必要了解一下“查询优化器”的工作原理,如非这样,有时查询优化器就会不按照你的本意进行快速查询。

  在查询分析阶段,查询优化器查看查询的每个阶段并决定限制需要扫描的数据量是否有用。如果一个阶段能被用作一个扫描参数(sarg),那么就称之为可优化的,并且能利用索引快速获得所需数据。

  sarg的定义:用于限制搜索的一个操作,因为他通常是指一个特定的匹配,一个值得范围内的匹配或两个以上条件的and连接。形式如下:

列名 操作符 <常数 或 变量>



<常数 或 变量> 操作符列名

  列名能出目前操作符的一边,而常数或变量出目前操作符的另一边。如:

name=’张三’

价格>5000

5000<价格

name=’张三’ and 价格>5000

  如果一个表达式不能满足sarg的形式,那他就无法限制搜索的范围了,也就是sql server必须对每一行都判断他是否满足where子句中的所有条件。所以一个索引对于不满足sarg形式的表达式来说是无用的。

  介绍完sarg后,我们来总结一下使用sarg及在实践中遇见的和某些资料上结论不同的经验:

  1、like语句是否属于sarg取决于所使用的通配符的类型

  如:name like ‘张%’ ,这就属于sarg

  而:name like ‘%张’ ,就不属于sarg。

  原因是通配符%在字符串的开通使得索引无法使用。

  2、or 会引起全表扫描

name=’张三’ and 价格>5000 符号sarg,而:name=’张三’ or 价格>5000 则不符合sarg。使用or会引起全表扫描。

  3、非操作符、函数引起的不满足sarg形式的语句

  不满足sarg形式的语句最典型的情况就是包括非操作符的语句,如:not、!=、<>、!<、!>、not exists、not in、not like等,另外更有函数。下面就是几个不满足sarg形式的例子:

abs(价格)<5000

name like ‘%三’

  有些表达式,如:

where 价格*2>5000

  sql server也会认为是sarg,sql server会将此式转化为:

where 价格>2500/2

  但我们不推荐这样使用,因为有时sql server不能确保这种转化和原始表达式是完全等价的。

  4、in 的作用相当和or

  语句:

select * from table1 where tid in (2,3)

  和

select * from table1 where tid=2 or tid=3

  是相同的,都会引起全表扫描,如果tid上有索引,其索引也会失效。

  5、尽量少用not

  6、exists 和 in 的执行效率是相同的

  非常多资料上都显示说,exists要比in的执行效率要高,同时应尽可能的用not exists来代替not in。但事实上,我试验了一下,发现二者无论是前面带不带not,二者之间的执行效率都是相同的。因为涉及子查询,我们试验这次用sql server自带的pubs数据库。运行前我们能把sql server的statistics i/o状态打开。

  (1)select title,price from titles where title_id in (select title_id from sales where qty>30)

  该句的执行结果为:

  表 sales。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。

  表 titles。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。

  (2)select title,price from titles where exists (select * from sales where sales.title_id=titles.title_id and qty>30)

  第二句的执行结果为:

  表 sales。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。

  表 titles。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。

  我们从此能看到用exists和用in的执行效率是相同的。

  7、用函数charindex()和前面加通配符%的like执行效率相同

  前面,我们谈到,如果在like前面加上通配符%,那么将会引起全表扫描,所以其执行效率是低下的。但有的资料介绍说,用函数charindex()来代替like速度会有大的提升,经我试验,发现这种说明也是错误的:

select gid,title,fariqi,reader from tgongwen where charindex(刑侦支队,reader)>0 and fariqi>2004-5-5

  用时:7秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。

select gid,title,fariqi,reader from tgongwen where reader like % + 刑侦支队 + % and fariqi>2004-5-5

  用时:7秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。

  8、union并不绝对比or的执行效率高

  我们前面已谈到了在where子句中使用or会引起全表扫描,一般的,我所见过的资料都是推荐这里用union来代替or。事实证实,这种说法对于大部分都是适用的。

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16 or gid>9990000

  用时:68秒。扫描计数 1,逻辑读 404008 次,物理读 283 次,预读 392163 次。

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16

union

select gid,fariqi,neibuyonghu,reader,title from tgongwen where gid>9990000

  用时:9秒。扫描计数 8,逻辑读 67489 次,物理读 216 次,预读 7499 次。

  看来,用union在通常情况下比用or的效率要高的多。

  但经过试验,笔者发现如果or两边的查询列是相同的话,那么用union则反倒和用or的执行速度差非常多,虽然这里union扫描的是索引,而or扫描的是全表。

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16 or fariqi=2004-2-5

  用时:6423毫秒。扫描计数 2,逻辑读 14726 次,物理读 1 次,预读 7176 次。

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-9-16

union

select gid,fariqi,neibuyonghu,reader,title from tgongwen where fariqi=2004-2-5

  用时:11640毫秒。扫描计数 8,逻辑读 14806 次,物理读 108 次,预读 1144 次。

  9、字段提取要按照“需多少、提多少”的原则,避免“select *”

  我们来做一个试验:

select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

  用时:4673毫秒

select top 10000 gid,fariqi,title from tgongwen order by gid desc

  用时:1376毫秒

select top 10000 gid,fariqi from tgongwen order by gid desc

  用时:80毫秒

  由此看来,我们每少提取一个字段,数据的提取速度就会有相应的提升。提升的速度还要看你舍弃的字段的大小来判断。

  10、count(*)不比count(字段)慢

  某些资料上说:用*会统计所有列,显然要比一个世界的列名效率低。这种说法其实是没有根据的。我们来看:

select count(*) from tgongwen

  用时:1500毫秒

select count(gid) from tgongwen

  用时:1483毫秒

select count(fariqi) from tgongwen

  用时:3140毫秒

select count(title) from tgongwen

  用时:52050毫秒

  从以上能看出,如果用count(*)和用count(主键)的速度是相当的,而count(*)却比其他所有除主键以外的字段汇总速度要快,而且字段越长,汇总的速度就越慢。我想,如果用count(*), sql server可能会自动查找最小字段来汇总的。当然,如果你直接写count(主键)将会来的更直接些。

  11、order by按聚集索引列排序效率最高

  我们来看:(gid是主键,fariqi是聚合索引列)

select top 10000 gid,fariqi,reader,title from tgongwen

  用时:196 毫秒。 扫描计数 1,逻辑读 289 次,物理读 1 次,预读 1527 次。

select top 10000 gid,fariqi,reader,title from tgongwen order by gid asc

  用时:4720毫秒。 扫描计数 1,逻辑读 41956 次,物理读 0 次,预读 1287 次。

select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

  用时:4736毫秒。 扫描计数 1,逻辑读 55350 次,物理读 10 次,预读 775 次。

select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi asc

  用时:173毫秒。 扫描计数 1,逻辑读 290 次,物理读 0 次,预读 0 次。

select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi desc

  用时:156毫秒。 扫描计数 1,逻辑读 289 次,物理读 0 次,预读 0 次。

  从以上我们能看出,不排序的速度及逻辑读次数都是和“order by 聚集索引列” 的速度是相当的,但这些都比“order by 非聚集索引列”的查询速度是快得多的。

  同时,按照某个字段进行排序的时候,无论是正序还是倒序,速度是基本相当的。

  12、高效的top

  事实上,在查询和提取超大容量的数据集时,影响数据库响应时间的最大因素不是数据查找,而是物理的i/0操作。如:

select top 10 * from (

select top 10000 gid,fariqi,title from tgongwen

where neibuyonghu=办公室

order by gid desc) as a

order by gid asc

  这条语句,从理论上讲,整条语句的执行时间应该比子句的执行时间长,但事实相反。因为,子句执行后返回的是10000条记录,而整条语句仅返回10条语句,所以影响数据库响应时间最大的因素是物理i/o操作。而限制物理i/o操作此处的最有效方法之一就是使用top关键词了。top关键词是sql server中经过系统优化过的一个用来提取前几条或前几个百分比数据的词。经笔者在实践中的应用,发现top确实非常好用,效率也非常高。但这个词在另外一个大型数据库oracle中却没有,这不能说不是个遗憾,虽然在oracle中能用其他方法(如:rownumber)来解决。在以后的关于“实现千万级数据的分页显示存储过程”的讨论中,我们就将用到top这个关键词。

  到此为止,我们上面讨论了怎么实现从大容量的数据库中快速地查询出你所需要的数据方法。当然,我们介绍的这些方法都是“软”方法,在实践中,我们还要考虑各种“硬”因素,如:网络性能、服务器的性能、操作系统的性能,甚至网卡、交换机等。

三、实现小数据量和海量数据的通用分页显示存储过程

  建立一个web 应用,分页浏览功能必不可少。这个问题是数据库处理中十分常见的问题。经典的数据分页方法是:ado 纪录集分页法,也就是利用ado自带的分页功能(利用游标)来实现分页。但这种分页方法仅适用于较小数据量的情形,因为游标本身有缺点:游标是存放在内存中,非常费内存。游标一建立,就将相关的记录锁住,直到取消游标。游标提供了对特定集合中逐行扫描的手段,一般使用游标来逐行遍历数据,根据取出数据条件的不同进行不同的操作。而对于多表和大表中定义的游标(大的数据集合)循环非常容易使程式进入一个漫长的等待甚至死机。

  更重要的是,对于非常大的数据模型而言,分页检索时,如果按照传统的每次都加载整个数据源的方法是非常浪费资源的。目前流行的分页方法一般是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行。

  最早较好地实现这种根据页面大小和页码来提取数据的方法大概就是“俄罗斯存储过程”。这个存储过程用了游标,由于游标的局限性,所以这个方法并没有得到大家的普遍认可。

  后来,网上有人改造了此存储过程,下面的存储过程就是结合我们的办公自动化实例写的分页存储过程:

create procedure pagination1

(@pagesize int, --页面大小,如每页存储20条记录

@pageindex int --当前页码

)

as

set nocount on

begin

declare @indextable table(id int identity(1,1),nid int) --定义表变量

declare @pagelowerbound int --定义此页的底码

declare @pageupperbound int --定义此页的顶码

set @pagelowerbound=(@pageindex-1)*@pagesize

set @pageupperbound=@pagelowerbound+@pagesize

set rowcount @pageupperbound

insert into @indextable(nid) select gid from tgongwen where fariqi >dateadd(day,-365,getdate()) order by fariqi desc

select o.gid,o.mid,o.title,o.fadanwei,o.fariqi from tgongwen o,@indextable t where o.gid=t.nid

and t.id>@pagelowerbound and t.id<=@pageupperbound order by t.id

end

set nocount off

  以上存储过程运用了sql server的最新技术――表变量。应该说这个存储过程也是个非常优秀的分页存储过程。当然,在这个过程中,你也能把其中的表变量写成临时表:create table #temp。但非常明显,在sql server中,用临时表是没有用表变量快的。所以笔者刚开始使用这个存储过程时,感觉非常的不错,速度也比原来的ado的好。但后来,我又发现了比此方法更好的方法。

  笔者曾在网上看到了一篇小短文《从数据表中取出第n条到第m条的记录的方法》,全文如下:

从publish 表中取出第 n 条到第 m 条的记录:
select top m-n+1 *
from publish
where (id not in
    (select top n-1 id
     from publish))

id 为publish 表的关键字

  我当时看到这篇文章的时候,真的是精神为之一振,觉得思路非常得好。等到后来,我在作办公自动化系统(asp.net+ c#+sql server)的时候,忽然想起了这篇文章,我想如果把这个语句改造一下,这就可能是个非常好的分页存储过程。于是我就满网上找这篇文章,没想到,文章还没找到,却找到了一篇根据此语句写的一个分页存储过程,这个存储过程也是目前较为流行的一种分页存储过程,我非常后悔没有争先把这段文字改造成存储过程:

create procedure pagination2
(
@sql nvarchar(4000), --不带排序语句的sql语句
@page int, --页码
@recsperpage int, --每页容纳的记录数
@id varchar(255), --需要排序的不重复的id号
@sort varchar(255) --排序字段及规则
)
as

declare @str nvarchar(4000)

set @str=select top +cast(@recsperpage as varchar(20))+ * from (+@sql+) t where t.+@id+not in
(select top +cast((@recsperpage*(@page-1)) as varchar(20))+ +@id+ from (+@sql+) t9 order by +@sort+) order by +@sort

print @str

exec sp_executesql @str
go

  其实,以上语句能简化为:

select top 页大小 *

from table1

where (id not in

(select top 页大小*页数 id

from 表

order by id))

order by id

  但这个存储过程有一个致命的缺点,就是他含有not in字样。虽然我能把他改造为:

select top 页大小 *

from table1

where not exists

(select * from (select top (页大小*页数) * from table1 order by id) b where b.id=a.id )

order by id

  即,用not exists来代替not in,但我们前面已谈过了,二者的执行效率实际上是没有差别的。

  既便如此,用top 结合not in的这个方法还是比用游标要来得快一些。

  虽然用not exists并不能挽救上个存储过程的效率,但使用sql server中的top关键字却是个非常明智的选择。因为分页优化的最终目的就是避免产生过大的记录集,而我们在前面也已提到了top的优势,通过top 即可实现对数据量的控制。

  在分页算法中,影响我们查询速度的关键因素有两点:top和not in。top能提高我们的查询速度,而not in会减慢我们的查询速度,所以要提高我们整个分页算法的速度,就要完全改造not in,同其他方法来替代他。

  我们知道,几乎所有字段,我们都能通过max(字段)或min(字段)来提取某个字段中的最大或最小值,所以如果这个字段不重复,那么就能利用这些不重复的字段的max或min作为分水岭,使其成为分页算法中分开每页的参照物。在这里,我们能用操作符“>”或“<”号来完成这个使命,使查询语句符合sarg形式。如:

select top 10 * from table1 where id>200

  于是就有了如下分页方案:

select top 页大小 *

from table1

where id>

(select max (id) from

(select top ((页码-1)*页大小) id from table1 order by id) as t

)

order by id

  在选择即不重复值,又容易分辨大小的列时,我们通常会选择主键。下表列出了笔者用有着1000万数据的办公自动化系统中的表,在以gid(gid是主键,但并不是聚集索引。)为排序列、提取gid,fariqi,title字段,分别以第1、10、100、500、1000、1万、10万、25万、50万页为例,测试以上三种分页方案的执行速度:(单位:毫秒)

页 码
方案1
方案2
方案3

1
60
30
76

10
46
16
63

100
1076
720
130

500
540
12943
83

1000
17110
470
250

1万
24796
4500
140

10万
38326
42283
1553

25万
28140
128720
2330

50万
121686
127846
7168


  从上表中,我们能看出,三种存储过程在执行100页以下的分页命令时,都是能信任的,速度都非常好。但第一种方案在执行分页1000页以上后,速度就降了下来。第二种方案大约是在执行分页1万页以上后速度开始降了下来。而第三种方案却始终没有大的降势,后劲仍然非常足。

  在确定了第三种分页方案后,我们能据此写一个存储过程。大家知道sql server的存储过程是事先编译好的sql语句,他的执行效率要比通过web页面传来的sql语句的执行效率要高。下面的存储过程不仅含有分页方案,还会根据页面传来的参数来确定是否进行数据总数统计。

-- 获取指定页的数据

create procedure pagination3

@tblname varchar(255), -- 表名

@strgetfields varchar(1000) = *, -- 需要返回的列

@fldname varchar(255)=, -- 排序的字段名

@pagesize int = 10, -- 页尺寸

@pageindex int = 1, -- 页码

@docount bit = 0, -- 返回记录总数, 非 0 值则返回

@ordertype bit = 0, -- 设置排序类型, 非 0 值则降序

@strwhere varchar(1500) = -- 查询条件 (注意: 不要加 where)

as

declare @strsql varchar(5000) -- 主语句

declare @strtmp varchar(110) -- 临时变量

declare @strorder varchar(400) -- 排序类型



if @docount != 0

begin

if @strwhere !=

set @strsql = "select count(*) as total from [" + @tblname + "] where "+@strwhere

else

set @strsql = "select count(*) as total from [" + @tblname + "]"

end

--以上代码的意思是如果@docount传递过来的不是0,就执行总数统计。以下的所有代码都是@docount为0的情况

else

begin



if @ordertype != 0

begin

set @strtmp = "<(select min"

set @strorder = " order by [" + @fldname +"] desc"

--如果@ordertype不是0,就执行降序,这句非常重要!

end

else

begin

set @strtmp = ">(select max"

set @strorder = " order by [" + @fldname +"] asc"

end



if @pageindex = 1

begin

if @strwhere !=

set @strsql = "select top " + str(@pagesize) +" "+@strgetfields+ " from [" + @tblname + "] where " + @strwhere + " " + @strorder

else

set @strsql = "select top " + str(@pagesize) +" "+@strgetfields+ " from ["+ @tblname + "] "+ @strorder

--如果是第一页就执行以上代码,这样会加快执行速度

end

else

begin

--以下代码赋予了@strsql以真正执行的sql代码

set @strsql = "select top " + str(@pagesize) +" "+@strgetfields+ " from ["

+ @tblname + "] where [" + @fldname + "]" + @strtmp + "(["+ @fldname + "]) from (select top " + str((@pageindex-1)*@pagesize) + " ["+ @fldname + "] from [" + @tblname + "]" + @strorder + ") as tbltmp)"+ @strorder



if @strwhere !=

set @strsql = "select top " + str(@pagesize) +" "+@strgetfields+ " from ["

+ @tblname + "] where [" + @fldname + "]" + @strtmp + "(["

+ @fldname + "]) from (select top " + str((@pageindex-1)*@pagesize) + " ["

+ @fldname + "] from [" + @tblname + "] where " + @strwhere + " "

+ @strorder + ") as tbltmp) and " + @strwhere + " " + @strorder

end

end

exec (@strsql)

go

  上面的这个存储过程是个通用的存储过程,其注释已写在其中了。

  在大数据量的情况下,特别是在查询最后几页的时候,查询时间一般不会超过9秒;而用其他存储过程,在实践中就会导致超时,所以这个存储过程非常适用于大容量数据库的查询。

  笔者希望能够通过对以上存储过程的解析,能给大家带来一定的启示,并给工作带来一定的效率提升,同时希望同行提出更优秀的实时数据分页算法。

四、聚集索引的重要性和怎么选择聚集索引

  在上一节的标题中,笔者写的是:实现小数据量和海量数据的通用分页显示存储过程。这是因为在将本存储过程应用于“办公自动化”系统的实践中时,笔者发现这第三种存储过程在小数据量的情况下,有如下现象:

  1、分页速度一般维持在1秒和3秒之间。

  2、在查询最后一页时,速度一般为5秒至8秒,哪怕分页总数只有3页或30万页。

  虽然在超大容量情况下,这个分页的实现过程是非常快的,但在分前几页时,这个1-3秒的速度比起第一种甚至没有经过优化的分页方法速度还要慢,借用户的话说就是“还没有access数据库速度快”,这个认识足以导致用户放弃使用你研发的系统。

  笔者就此分析了一下,原来产生这种现象的症结是如此的简单,但又如此的重要:排序的字段不是聚集索引!

  本篇文章的题目是:“查询优化及分页算法方案”。笔者只所以把“查询优化”和“分页算法”这两个联系不是非常大的论题放在一起,就是因为二者都需要一个非常重要的东西――聚集索引。

  在前面的讨论中我们已提到了,聚集索引有两个最大的优势:

  1、以最快的速度缩小查询范围。

  2、以最快的速度进行字段排序。

  第1条多用在查询优化时,而第2条多用在进行分页时的数据排序。

  而聚集索引在每个表内又只能建立一个,这使得聚集索引显得更加的重要。聚集索引的挑选能说是实现“查询优化”和“高效分页”的最关键因素。

  但要既使聚集索引列既符合查询列的需要,又符合排序列的需要,这通常是个矛盾。

  笔者前面“索引”的讨论中,将fariqi,即用户发文日期作为了聚集索引的起始列,日期的精确度为“日”。这种作法的好处,前面已提到了,在进行划时间段的快速查询中,比用id主键列有非常大的优势。

  但在分页时,由于这个聚集索引列存在着重复记录,所以无法使用max或min来最为分页的参照物,进而无法实现更为高效的排序。而如果将id主键列作为聚集索引,那么聚集索引除了用以排序之外,没有所有用处,实际上是浪费了聚集索引这个宝贵的资源。

   为解决这个矛盾,笔者后来又添加了一个日期列,其默认值为getdate()。用户在写入记录时,这个列自动写入当时的时间,时间精确到毫秒。即使这样,为了避免可能性非常小的重合,还要在此列上创建unique约束。将此日期列作为聚集索引列。

  有了这个时间型聚集索引列之后,用户就既能用这个列查找用户在插入数据时的某个时间段的查询,又能作为唯一列来实现max或min,成为分页算法的参照物。

  经过这样的优化,笔者发现,无论是大数据量的情况下还是小数据量的情况下,分页速度一般都是几十毫秒,甚至0毫秒。而用日期段缩小范围的查询速度比原来也没有所有迟钝。

  聚集索引是如此的重要和珍贵,所以笔者总结了一下,一定要将聚集索引建立在:

  1、你最频繁使用的、用以缩小查询范围的字段上;

  2、你最频繁使用的、需要排序的字段上。

  结束语:

  希望这篇文章不仅能够给大家的工作带来一定的帮助,也希望能让大家能够体会到分析问题的方法;最重要的是,希望这篇文章能够抛砖引玉,掀起大家的学习和讨论的兴趣,以一起促进。
  最后需要说明的是,在试验中,发现用户在进行大数据量查询的时候,对数据库速度影响最大的不是内存大小,而是cpu。在我的p4 2.4机器上试验的时候,查看“资源管理器”,cpu经常出现持续到100%的现象,而内存用量却并没有改动或说没有大的改动。即使在我们的hp ml 350 g3服务器上试验时,cpu峰值也能达到90%,一般持续在70%左右。

分享到:
评论

相关推荐

    100万条数据导入SQL数据库仅用4秒

    总结来说,实现100万条数据在4秒内导入SQL Server数据库,需要结合C#的SqlBulkCopy、异步操作、数据预处理、优化的数据库设计以及高性能的硬件配置。通过这些方法,我们可以最大化数据导入效率,应对大数据挑战。而...

    百万级数据在Excel和Sql数据库之间相互导入、导出

    SQL Server是一种企业级的关系数据库管理系统,它设计用于处理大规模数据,提供高效的数据存储、查询和分析功能。对于百万级的数据,SQL Server能提供稳定且高性能的解决方案。它可以快速执行复杂的查询,并通过索引...

    SqlServer2008查询优化研究报告

    ### SqlServer2008查询优化研究报告 #### 1. 引言 随着信息技术的飞速发展,数据库技术被广泛应用于各个领域的处理系统之中。在这些应用中,数据量的增长速度越来越快,尤其是在金融、交通、互联网搜索等领域,对...

    sqlserver海量数据TOP分页

    例如,如果我们想要获取100万条数据中的前1000条,可以这样写: ```sql SELECT TOP 1000 * FROM YourTable ORDER BY SomeColumn DESC ``` 这里`SomeColumn`是你希望依据其进行排序的列,`DESC`表示降序排列,...

    SQL Server多表查询优化方案集锦

    在SQL Server中,多表查询优化对于提升数据库性能至关重要,特别是在大数据量的环境中。本文将深入探讨几个关键的优化策略,以帮助改善SQL Server多表查询的效率。 1. **执行计划优化**:执行计划是SQL Server解析...

    sqlServer数据库大表分区方案

    1. **表中数据量庞大**:当单表数据量达到百万级(&gt;=100万条)时,通常就需要考虑对表实施分区。对于千万级的大表来说,分区更是必不可少的技术手段。 2. **查询及更新语句(读写)缓慢**:当查询表数据或更新表...

    SQL查询效率:100w数据查询只需要1秒钟

    ### SQL查询效率提升技巧:如何实现100万数据秒级查询 在处理大量数据时,提高查询效率是至关重要的。本文将通过一系列步骤展示如何优化SQL查询性能,以达到即使是100万条记录也能在一秒钟内完成查询的目标。 ####...

    巧用执行计划优化SQL Server数据库查询.pdf

    在SQL Server数据库管理中,随着数据量的增长,高效的查询优化变得至关重要。查询操作占据了数据库各种操作中的大部分比例。当数据积累到一定程度,例如一个拥有数十万甚至上百万条记录的考试管理系统,全表扫描可能...

    百万数据查询优化技巧三十则

    ### 百万数据查询优化技巧三十则 #### 知识点一:避免全表扫描 - **要点**:为了提高查询效率,应当尽可能地避免执行全表扫描操作。 - **方法**:通常的做法是在 `WHERE` 和 `ORDER BY` 子句中涉及到的列上建立索引...

    SQL Server 2012性能基准测试

    xVelocity存储技术是SQL Server 2012中一项创新的列存储索引功能,旨在优化数据仓库的查询效率。通过对列数据存储的优化,xVelocity能够显著提升查询速度,特别是在大规模数据集的处理上,与传统方法相比,查询性能...

    sqlserver2005表分区

    1. 数据量大:当表中的记录数量达到一定规模,例如100万条或更多,且查询速度明显下降时,可以考虑使用分区。 2. 数据分段:数据是分段的,比如按时间、地区等维度划分,且对不同时间段或区域的操作频率不同。常用的...

    处理百万级以上的数据提高查询速度的方法

    在处理大量数据时,如何优化SQL查询以提高查询效率是一项至关重要的技能。以下是从标题、描述、标签以及部分内容中提炼出的关键知识点,这些技巧可以帮助你在面对海量数据时提升SQL查询的速度。 #### 1. 避免使用 `...

    关于SQL 数据分页

    在SQL中,数据分页是一种常见的...总的来说,SQL数据分页是一项重要的数据库查询技术,它使得用户能够有效地浏览和处理大量数据。不同的数据库系统提供了不同的分页语法,开发人员需要根据具体环境选择最适合的方法。

    海量数据库的查询优化及分页算法方案

    海量数据库是指拥有庞大数量的数据记录的数据库,通常超过100万条记录。这种数据库在实际应用中会出现性能下降、查询延迟、数据丢失等问题。 为了解决这些问题,我们需要对海量数据库进行优化。优化的目的是为了...

    大数据 sql 性能 优化 分页算法

    本文将详细介绍如何在拥有大量数据的 MS SQL Server 数据库中进行查询优化,并探讨高效的大数据分页策略。 #### 二、建立适当的索引 建立“适当”的索引是实现查询优化的关键步骤之一。索引是一种数据结构,它能够...

    将SQL数据表转成Access表

    将SQL里面的表的字段 查询出来并导出...3有经过试验,导入100万条数据,要时间大概10分钟左右,如果要导出大数据的朋友,做好设置好,可以去洗澡后再出来!! 4在NetFrameWork2.0平台上用,下载含源代码,仅学习用!!

    SqlBulk_sql_SqlBulk_开秒信息数据_

    描述提到“使用SqlBulk批量插入数据示例源码(8秒插入100万数据)”,这表明我们将学习如何利用SqlBulkCopy类(SqlBulk的一部分)来实现高效的数据插入。在C#中,这个类允许开发者将大量数据从一个数据源(如DataTable...

Global site tag (gtag.js) - Google Analytics