`

海量数据查询优化技巧

阅读更多

1.对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引。

2.应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num is null
可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:
select id from t where num=0

3.应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。

4.应尽量避免在 where 子句中使用 or 来连接条件,否则将导致引擎放弃使用索引而进行全表扫描,如:
select id from t where num=10 or num=20
可以这样查询:
select id from t where num=10
union all
select id from t where num=20

5.in 和 not in 也要慎用,否则会导致全表扫描,如:
select id from t where num in(1,2,3)
对于连续的数值,能用 between 就不要用 in 了:
select id from t where num between 1 and 3

6.下面的查询也将导致全表扫描:
select id from t where name like '%abc%'
若要提高效率,可以考虑全文检索。

7.如果在 where 子句中使用参数,也会导致全表扫描。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推迟到运行时;它必须在编译时进行选择。然而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项。如下面语句将进行全表扫描:
select id from t where num=@num
可以改为强制查询使用索引:
select id from t with(index(索引名)) where num=@num

8.应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描。如:
select id from t where num/2=100
应改为:
select id from t where num=100*2

9.应尽量避免在where子句中对字段进行函数操作,这将导致引擎放弃使用索引而进行全表扫描。如:
select id from t where substring(name,1,3)='abc'--name以abc开头的id
select id from t where datediff(day,createdate,'2005-11-30')=0--‘2005-11-30’生成的id
应改为:
select id from t where name like 'abc%'
select id from t where createdate>='2005-11-30' and createdate<'2005-12-1'

10.不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引。

11.在使用索引字段作为条件时,如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用,并且应尽可能的让字段顺序与索引顺序相一致。

12.不要写一些没有意义的查询,如需要生成一个空表结构:
select col1,col2 into #t from t where 1=0
这类代码不会返回任何结果集,但是会消耗系统资源的,应改成这样:
create table #t(...)

13.很多时候用 exists 代替 in 是一个好的选择:
select num from a where num in(select num from b)
用下面的语句替换:
select num from a where exists(select 1 from b where num=a.num)

14.并不是所有索引对查询都有效,SQL是根据表中数据来进行查询优化的,当索引列有大量数据重复时,SQL查询可能不会去利用索引,如一表中有字段sex,male、female几乎各一半,那么即使在sex上建了索引也对查询效率起不了作用。

15.索引并不是越多越好,索引固然可以提高相应的 select 的效率,但同时也降低了 insert 及 update 的效率,因为 insert 或 update 时有可能会重建索引,所以怎样建索引需要慎重考虑,视具体情况而定。一个表的索引数最好不要超过6个,若太多则应考虑一些不常使用到的列上建的索引是否有必要。

16.应尽可能的避免更新 clustered 索引数据列,因为 clustered 索引数据列的顺序就是表记录的物理存储顺序,一旦该列值改变将导致整个表记录的顺序的调整,会耗费相当大的资源。若应用系统需要频繁更新 clustered 索引数据列,那么需要考虑是否应将该索引建为 clustered 索引。

17.尽量使用数字型字段,若只含数值信息的字段尽量不要设计为字符型,这会降低查询和连接的性能,并会增加存储开销。这是因为引擎在处理查询和连接时会逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了。

18.尽可能的使用 varchar/nvarchar 代替 char/nchar ,因为首先变长字段存储空间小,可以节省存储空间,其次对于查询来说,在一个相对较小的字段内搜索效率显然要高些。

19.任何地方都不要使用 select * from t ,用具体的字段列表代替“*”,不要返回用不到的任何字段。

20.尽量使用表变量来代替临时表。如果表变量包含大量数据,请注意索引非常有限(只有主键索引)。

21.避免频繁创建和删除临时表,以减少系统表资源的消耗。

22.临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时。但是,对于一次性事件,最好使用导出表。

23.在新建临时表时,如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table,然后insert。

24.如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table ,然后 drop table ,这样可以避免系统表的较长时间锁定。

25.尽量避免使用游标,因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该考虑改写。

26.使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效。

27.与临时表一样,游标并不是不可使用。对小型数据集使用 FAST_FORWARD 游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时。在结果集中包括“合计”的例程通常要比使用游标执行的速度快。如果开发时间允许,基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好。

28.在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON ,在结束时设置 SET NOCOUNT OFF 。无需在执行存储过程和触发器的每个语句后向客户端发送 DONE_IN_PROC 消息。

29.尽量避免大事务操作,提高系统并发能力。

30.尽量避免向客户端返回大数据量,若数据量过大,应该考虑相应需求是否合理。

分享到:
评论

相关推荐

    百万数据查询优化海量数据查询优化

    【标题】:“百万数据查询优化海量数据查询优化” 在处理海量数据时,查询优化显得尤为重要,特别是当数据量达到百万级别甚至更高时。查询优化旨在提高数据查询的效率,减少查询时间,提升系统性能。以下是一些关键...

    海量数据的优化经验与技巧

    总结,优化海量数据处理涉及多个方面,包括索引设计、查询优化、存储过程使用、分区策略、数据分页技术、内存管理和定期维护。通过这些方法,我们可以应对千万级数据带来的挑战,提供高效的数据服务。在实践中,应...

    海量数据查找数据问题

    在IT行业中,海量数据处理是一项重要的任务,尤其是在大数据时代,数据量的增长速度远超我们的想象。面对这样的挑战,如何高效地从海量数据中查找特定信息成为了一项关键技术。本篇文章将详细探讨如何解决"海量数据...

    海量数据库的查询优化及分页算法方案

    在处理海量数据时,传统的查询方法可能会导致性能瓶颈,影响系统的响应速度。以下是一些常见的查询优化策略: 1. **索引优化**:建立合适的索引可以显著加快查询速度。合理选择主键,创建复合索引,以及考虑使用...

    海量数据处理分析方法

    总的来说,海量数据处理分析方法涉及数据库选择、程序优化、数据分区、索引建立、缓存管理、虚拟内存调整、分批处理等多个层面,这些技术和策略的综合运用是应对大数据时代的关键。通过不断学习和实践,工程师可以...

    让Oracle跑得更快基于海量数据的数据库设计与优化.谭怀远.第2版

    这本书的第二版深入讲解了Oracle数据库在面对海量数据时的设计策略和优化技巧,旨在帮助数据库管理员和开发人员提升系统效率,确保业务流畅运行。 首先,书中的核心知识点围绕着数据库设计展开。在设计阶段,合理的...

    基于openlayers和canvas绘制海量数据的实现

    5. **优化技巧** - **Web Workers**:使用Web Workers在后台线程处理数据,避免阻塞主线程,提升用户体验。 - **GPU加速**:利用WebGL,Canvas可以利用GPU进行硬件加速,进一步提高渲染效率。 - **缓存机制**:...

    如何处理海量数据

    海量数据的处理中,面临的主要挑战包括数据量...以上策略和技巧结合使用,可以有效应对海量数据的处理问题,确保数据的准确性和处理效率。在实际应用中,还需要根据具体业务需求和系统环境灵活调整,以达到最佳效果。

    海量数据处理分析.pdf

    本文通过一系列专业指导和实际案例,总结了处理海量数据的多个策略和技巧。在实际工作中,这些方法和思路的结合使用,能够有效提升海量数据处理的效率和质量。作者戴予良通过自身经验,提出了在数据处理过程中采取的...

    如何处理海量数据.pdf

    3. **高超的处理技巧**:有效处理海量数据需要掌握一系列专业技能和经验,这些技巧往往是工程师们长期实践中积累的结果。 #### 二、处理策略与技巧 为了应对这些挑战,以下是一些有效的策略和技巧: 1. **选用...

    海量数据如何做分页处理-方案公布

    数据处理与优化技巧 - **分批处理**: 将大数据量拆分成若干小批次进行处理,每批处理完毕后再进行合并,有效降低单次处理的压力。 - **临时表与中间表**: 在数据处理过程中,合理使用临时表和中间表,可以将大表...

    《Hadoop海量数据处理》高清完整PDF版

    本书《Hadoop海量数据处理》是一本专注于Hadoop技术的专业技术书籍,旨在向读者介绍Hadoop生态系统的关键组件、核心概念以及在处理海量数据时的应用方法。全书分为基础篇、应用篇和总结篇三个部分,全面涵盖了Hadoop...

    让Oracle跑得更快 2 基于海量数据的数据库设计与优化

    《让Oracle跑得更快 2 基于海量数据的数据库设计与优化》是一本深入探讨如何在大数据环境下提升...通过学习,读者不仅可以掌握理论知识,还能获得实际操作的技巧,从而让Oracle数据库在处理海量数据时运行得更加高效。

    海量数据的处理及优化.docx

    【海量数据处理与优化】 海量数据处理是当前互联网和计算机科学(cs)领域的重要课题,尤其是在大数据时代,如何高效地处理、存储和分析大规模数据成为企业和研究者关注的重点。面对海量数据,通常需要采取一系列...

    sql2000海量数据库的查询优化

    在探讨“SQL2000海量数据库的查询优化...通过上述知识点的学习,我们不仅了解了如何构建测试环境、比较不同查询类型的性能,还掌握了如何根据具体需求选择最合适的查询方法,从而在处理海量数据时实现高效的查询性能。

    MATLAB中海量数据的存储技巧.pdf

    在处理MATLAB中的海量数据时,我们经常遇到内存溢出的问题,即“outofmemory”错误。这是因为MATLAB在处理大型矩阵和数组时,需要占用连续的内存空间。为了解决这一问题,本文将深入探讨MATLAB中的数据存储机制,...

    基于MatLab的海量数据处理方法.pdf

    在实际操作中,处理海量数据通常需要高效的算法设计,以及对MatLab编程技巧的深入理解。例如,可以考虑使用稀疏矩阵来存储数据,因为稀疏矩阵只存储非零元素,从而节省大量内存空间。此外,使用MatLab的内置函数和...

    python 做海量数据处理

    在Python中进行海量数据处理是一项挑战,因为Python解释器在内存管理和性能方面相对于其他专为大数据设计的...总之,Python虽然在处理海量数据时面临一些挑战,但通过合理的设计和优化,仍然可以胜任大数据处理任务。

Global site tag (gtag.js) - Google Analytics