发布新日志

  • 获取存储过程返回值

    2007-06-18 16:46:04

    jdbc调存储过程:
    1.out,inout参数必须registerOutParameter一下。
    2.返回值用CallableStatement.get(int )取得
    3.如可驱动支持,可将游标return ,将强制转换为resultSet进行操作。
    4.如果返回多个结果集,则必须取完所有结果集后,最后取out参数
    5.jdbc会自动依相应类型自动处理值为null的字段为相应的java类型。
  • 使用 INDEX 优化器提示

    2007-06-12 14:37:34

    a. 使用 INDEX 优化器提示

    以下示例说明了使用 INDEX 优化器提示的两种方式。第一个示例说明如何强制优化器使用非聚集索引检索表中的行,第二个示例使用索引 0 强制执行表扫描。

    复制代码
    -- Use the specifically named INDEX.
    USE AdventureWorks ;
    GO
    SELECT c.FirstName, c.LastName, e.Title
    FROM HumanResources.Employee e WITH (INDEX(IX_Employee_ManagerID))
    JOIN Person.Contact c on e.ContactID = c.ContactID
    WHERE ManagerID = 2 ;
    GO
    
    -- Force a table scan by using INDEX = 0.
    USE AdventureWorks ;
    GO
    SELECT c.LastName, c.FirstName, e.Title
    FROM HumanResources.Employee e WITH (INDEX = 0) JOIN Person.Contact c
    ON e.ContactID = c.ContactID
    WHERE LastName = 'Johnson' ;
    GO
  • DBCC DBREINDEX重建索引提高SQL Server性能

    2007-06-12 09:37:34

    DBCC DBREINDEX重建索引提高SQL Server性能

    [转载]大多数SQL Server表需要索引来提高数据的访问速度,如果没有索引,SQL Server 
    要进行表格扫描读取表中的每一个记录才能找到索要的数据。索引可以分为簇索引和非簇索
    引,簇索引通过重排表中的数据来提高数据的访问速度,而非簇索引则通过维护表中的数据
    指针来提高数据的索引。

    1. 索引的体系结构 
    为什么要不断的维护表的索引?首先,简单介绍一下索引的体系结构。SQL 
    Server在硬盘中用8KB页面在数据库文件内存放数据。缺省情况下这些页面及其包含的数据
    是无组织的。为了使混乱变为有序,就要生成索引。生成索引后,就有了索引页和数据页,
    数据页保存用户写入的数据信息。索引页存放用于检索列的数据值清单(关键字)和索引表
    中该值所在纪录的地址指针。索引分为簇索引和非簇索引,簇索引实质上是将表中的数据排
    序,就好像是字典的索引目录。非簇索引不对数据排序,它只保存了数据的指针地址。向一
    个带簇索引的表中插入数据,当数据页达到100%时,由于页面没有空间插入新的的纪录,这
    时就会发生分页,SQL Server 
    将大约一半的数据从满页中移到空页中,从而生成两个半的满页。这样就有大量的数据空间
    。簇索引是双向链表,在每一页的头部保存了前一页、后一页地址以及分页后数据移动的地
    址,由于新页可能在数据库文件中的任何地方,因此页面的链接不一定指向磁盘的下一个物
    理页,链接可能指向了另一个区域,这就形成了分块,从而减慢了系统的速度。对于带簇索
    引和非簇索引的表来说,非簇索引的关键字是指向簇索引的,而不是指向数据页的本身。

    为了克服数据分块带来的负面影响,需要重构表的索引,这是非常费时的,因此只能在需要
    时进行。可以通过DBCC SHOWCONTIG来确定是否需要重构表的索引。

    2. DBCC SHOWCONTIG用法 下面举例来说明DBCC SHOWCONTIG和DBCC 
    REDBINDEX的使用方法。以应用程序中的Employee数据表作为例子,在 SQL Server的Query 
    analyzer输入命令: 
    use database_name declare @table_id int set @table_id=object_id(’Employee’) dbcc showcontig(@table_id)

    输出结果: 
     DBCC SHOWCONTIG scanning ’Employee’ table... Table: ’Employee’ 
    (1195151303); index ID: 1, database ID: 53 TABLE level scan performed. - Pages 
    Scanned................................: 179 - Extents 
    Scanned..............................: 24 - Extent 
    Switches..............................: 24 - Avg. Pages per 
    Extent........................: 7.5 - Scan Density [Best Count:Actual 
    Count].......: 92.00% [23:25] - Logical Scan Fragmentation ..................: 
    0.56% - Extent Scan Fragmentation ...................: 12.50% - Avg. Bytes Free 
    per Page.....................: 552.3 - Avg. Page Density 
    (full).....................: 93.18% DBCC execution completed. If DBCC printed 
    error messages, contact your system administrator. 
    通过分析这些结果可以知道该表的索引是否需要重构。如下描述了每一行的意义: 信息 
    描述 Pages Scanned 表或索引中的长页数 Extents Scanned 
    表或索引中的长区页数 Extent Switches 
    DBCC遍历页时从一个区域到另一个区域的次数 Avg. Pages per Extent 
    相关区域中的页数 Scan Density[Best Count:Actual Count] Best 
    Count是连续链接时的理想区域改变数,Actual Count是实际区域改变数,Scan 
    Density为100%表示没有分块。 Logical Scan Fragmentation 
    扫描索引页中失序页的百分比 Extent Scan Fragmentation 
    不实际相邻和包含链路中所有链接页的区域数 Avg. Bytes Free per Page 
    扫描页面中平均自由字节数 Avg. Page Density (full) 
    平均页密度,表示页有多满

    从上面命令的执行结果可以看的出来,Best count为23 而Actual 
    Count为25这表明orders表有分块需要重构表索引。下面通过DBCC 
    DBREINDEX来重构表的簇索引。

    3. DBCC DBREINDEX 用法 重建指定数据库中表的一个或多个索引。

    语法 DBCC DBREINDEX ( [ ’database.owner.table_name’ [ , index_name [ , 
    fillfactor ] ] ] ) 

    参数 ’database.owner.table_name’ 
    是要重建其指定的索引的表名。数据库、所有者和表名必须符合标识符的规则。有关更多信
    息,请参见使用标识符。如果提供 database 或 owner 部分,则必须使用单引号 (’) 
    将整个 database.owner.table_name 括起来。如果只指定 table_name,则不需要单引号。

    index_name 是要重建的索引名。索引名必须符合标识符的规则。如果未指定 index_name 
    或指定为 ’ ’,就要对表的所有索引进行重建。

    fillfactor 是创建索引时每个索引页上要用于存储数据的空间百分比。fillfactor 
    替换起始填充因子以作为索引或任何其它重建的非聚集索引(因为已重建聚集索引)的新默
    认值。如果 fillfactor 为 0,DBCC DBREINDEX 在创建索引时将使用指定的起始 
    fillfactor。

    同样在Query Analyzer中输入命令:
    dbcc dbreindex(’database_name.dbo.Employee’,’’,90)

    然后再用DBCC SHOWCONTIG查看重构索引后的结果: 
     DBCC SHOWCONTIG scanning 
    ’Employee’ table... Table: ’Employee’ (1195151303); index ID: 1, database ID: 53 
    TABLE level scan performed. - Pages Scanned................................: 178 
    - Extents Scanned..............................: 23 - Extent 
    Switches..............................: 22 - Avg. Pages per 
    Extent........................: 7.7 - Scan Density [Best Count:Actual 
    Count].......: 100.00% [23:23] - Logical Scan Fragmentation ..................: 
    0.00% - Extent Scan Fragmentation ...................: 0.00% - Avg. Bytes Free 
    per Page.....................: 509.5 - Avg. Page Density 
    (full).....................: 93.70% DBCC execution completed. If DBCC printed 
    error messages, contact your system administrator.
    通过结果我们可以看到Scan Denity为100%。 
  • function

    2007-06-05 13:59:57

    -- ================================================
    -- Template generated from Template Explorer using:
    -- Create Scalar Function (New Menu).SQL
    --
    -- Use the Specify Values for Template Parameters
    -- command (Ctrl-Shift-M) to fill in the parameter
    -- values below.
    --
    -- This block of comments will not be included in
    -- the definition of the function.
    -- ================================================
    SET ANSI_NULLS ON
    GO
    SET QUOTED_IDENTIFIER ON
    GO
    -- =============================================
    -- Author:  <Author,,Name>
    -- Create date: <Create Date, ,>
    -- Descrīption: <Descrīption, ,>
    -- =============================================
    CREATE FUNCTION formatEmpty
    (
    @pValue varchar(200)
    )
    RETURNS varchar(200)
    AS
    BEGIN

     DECLARE @pReturn varchar(200);
     DECLARE @i int;
     DECLARE @len int;

     SET @pReturn=RTRIM(@pValue);
     SET @len=Len(@pReturn);
     SET @i=1;
     while  @i<=@len
      if (Substring(@pReturn,@i,1)='?')
        SET @i=@i+1;
      ELSE IF( Substring(@pReturn,@i,2)='?')
        SET @i=@i+2;
      ELSE
       return @pReturn;

     return '';

    END
    GO

     

  • 在SQL语句中使用索引提示提高SQL性能

    2007-06-04 21:03:47

     

    Hints are used to give specific information that we know about our data and application, to Oracle. This further improves the performance of our system. There can be instances where the default optimizer may not be efficient for certain SQL statements. We can specify HINTS with the SQL statements, to improve the efficiency of those SQL statements.

    In this article, we shall see how to specify INDEX hints and what the advantages of the same are.

    How to specify Hints

    The Hints are enclosed in comment, /* comment */, in an SQL statement, and can only be specified with SELECT, DELETE and UPDATE keyword.

    SELECT /* comment */ ........ ;

    All hints should start with a + sign. This tells the SQL Parser that the SQL has a hint specified with it.

    SELECT /*+{hint} */ ........ ;

    Using INDEX Hints

    When you specify an INDEX Hint, the optimizer knows that it has to use the INDEX specified in the hint. In this case, the optimizer does not go for a Full Table Scan nor does it use any other index. In addition, it does not calculate the cost of the Index to be used.

    If no INDEX hint is specified the optimizer determines the cost of the each index that could be used to access the table and uses the one with the lower cost.

    If there are multiple indexes specified with the Hint then the optimizer has to determine the cost of each index to be used with the specified table. Once that is determined, it uses the Index with the lower cost to access the table. In this case, the optimizer does not do a FULL Table Scan. Also note that, the optimizer may choose to use multiple indexes and then merge the result sets to access the table. This method is used if the cost is low.

    Syntax:

    /*+ INDEX ( table [index [index]...] ) */

    Where:

    • table specifies the name or alias of the table associated with the index to be scanned.
    • index specifies an index on which an index scan is to be performed.

    Examples:

    select /*+ INDEX(emp_city idx_job_code) */ empname, 
    job_code from emp where job_code = 'T';

    In the above example we are querying the emp table to find employees who are Temporary (job_code = 'T') in the organization.

    The above approach will be faster only if we know that less than 50% rows will be returned by the above query. If we know that there are more Temporary employees than the Permanent (job_code = 'P') employees, then the above approach will not be efficient. It is better that we do a FULL Table scan.

     
    DELETE /*+ INDEX(emp_status idx_emp_status)*/ FROM 
    emp_status WHERE status = 'T';

    INDEX_ASC

    /*+ INDEX_ASC(table index[index .. index]) */

    INDEX_ASC is almost the same as INDEX Hint. The difference is that if INDEX Range is specified the entries are scanned in ascending order.

    INDEX_DESC

    /*+ INDEX_DESC (table index[index .. index]) */

    INDEX_DESC is almost the same as INDEX Hint. The difference is that if INDEX Range is specified the entries are scanned in descending order.

    FULL

    You can use the FULL hint to bypass the use of the INDEX. For example if you have a table, which is indexed, and the value you are searching for has a large number of duplicates, then you can go in for a Full Table scan. If an index is used, in this case it will be inefficient. Using FULL hint will bypass the index(es).

    Syntax:

    /*+ FULL (table) */

    Example:

     
    select /*+ FULL(emp_status) */ empname, status from 
    emp_status where status = 'P';

    NO_INDEX

    The NO_INDEX hint explicitly specifies which index cannot be used for the specified table.

    Example:

     
    select /*+ NO_INDEX(emp_status emp_status) */ empname, 
    status from emp_status where status = 'P';
    • If this hint specifies single or multiple available index(es), then the optimizer does not consider a scan on these indexes. Other indexes not specified are still considered.
    • If this hint specifies no indexes, then the optimizer does not consider a scan on any index on the table. This is the same as a NO_INDEX hint that specifies a list of all available indexes for the table.

    Summary

    Since you know more about your application and data, you can pass on this information to Oracle to improve the performance of your system.

    By using Hints, you can improve certain SQL statements that might otherwise be inefficient.



    Trackback: http://tb.blog.csdn.net/TrackBack.aspx?PostId=628283

  • 表Information中有四个字段:ID,Name,Sex,Position

    2007-05-29 22:16:51

    delete   from   information   t0  
      where   exist   (select   id    
                                from   information   t1    
                                where   t1.id<t0.id   and   t1.name=t0.name)

     

     

    你不是说ID是主键吗,既然是主键,就不应该有两条完全相同的记录。  
      我的语句你说有错,用飘香兄改过的,以下语句查出Name有重复的记录,删除Name相同而ID不是最大的记录,也就是保留ID最大的一条记录,其他的删除。  
      delete   a                                              
      from   Information   a,  
      (  
      select   max(id)   as   id,Name   from   Information    
      group   by   name   having   count(*)>1  
      )   as   b  
      where   a.id<>b.id  
      and   a.name=b.name  

  • sql中distinct的用法

    2007-05-29 22:11:07

    2007年05月11日 星期五 15:19

    在说distinct之前,先记录下今天遇到的一个问题,今天出现了SESSION冲突的问题,查了很久之后才发现原因是php.ini中把SESSION变量设定为全局变量造成的。昨天的格林威治时间也是因为php.ini中设置造成。

    distinct会筛选出不同的记录,也就是说想通内容的那个字段只会取一条

    eg:select distinct(ebay_id) from autoorder order by id

    这个会查询中autoorder表中ebay_id不同的所有记录。

    这里有个问题要注意一下,就是用了distinct,它只能查distinct对应的字段哦,如果你写成:

    eg:select distinct(ebay_id),id,referer    from autoorder order by id

    的话,那查询的将会是autoorder表中的所有记录,没有做到筛选不同ebay_id的记录

  • SQL优化-索引

    2007-05-29 17:48:44

    (一)深入浅出理解索引结构

    实际上,您可以把索引理解为一种特殊的目录。微软的SQL SERVER提供了两种索引:聚集索引(clustered index,也称聚类索引、簇集索引)和非聚集索引(nonclustered index,也称非聚类索引、非簇集索引)。下面,我们举例来说明一下聚集索引和非聚集索引的区别:

    其实,我们的汉语字典的正文本身就是一个聚集索引。比如,我们要查“安”字,就会很自然地翻开字典的前几页,因为“安”的拼音是“an”,而按照拼音排序汉字的字典是以英文字母“a”开头并以“z”结尾的,那么“安”字就自然地排在字典的前部。如果您翻完了所有以“a”开头的部分仍然找不到这个字,那么就说明您的字典中没有这个字;同样的,如果查“张”字,那您也会将您的字典翻到最后部分,因为“张”的拼音是“zhang”。也就是说,字典的正文部分本身就是一个目录,您不需要再去查其他目录来找到您需要找的内容。

    我们把这种正文内容本身就是一种按照一定规则排列的目录称为“聚集索引”。

    如果您认识某个字,您可以快速地从自典中查到这个字。但您也可能会遇到您不认识的字,不知道它的发音,这时候,您就不能按照刚才的方法找到您要查的字,而需要去根据“偏旁部首”查到您要找的字,然后根据这个字后的页码直接翻到某页来找到您要找的字。但您结合“部首目录”和“检字表”而查到的字的排序并不是真正的正文的排序方法,比如您查“张”字,我们可以看到在查部首之后的检字表中“张”的页码是672页,检字表中“张”的上面是“驰”字,但页码却是63页,“张”的下面是“弩”字,页面是390页。很显然,这些字并不是真正的分别位于“张”字的上下方,现在您看到的连续的“驰、张、弩”三字实际上就是他们在非聚集索引中的排序,是字典正文中的字在非聚集索引中的映射。我们可以通过这种方式来找到您所需要的字,但它需要两个过程,先找到目录中的结果,然后再翻到您所需要的页码。

    我们把这种目录纯粹是目录,正文纯粹是正文的排序方式称为“非聚集索引”。

    通过以上例子,我们可以理解到什么是“聚集索引”和“非聚集索引”。

    进一步引申一下,我们可以很容易的理解:每个表只能有一个聚集索引,因为目录只能按照一种方法进行排序。

    (二)何时使用聚集索引或非聚集索引

    下面的表总结了何时使用聚集索引或非聚集索引(很重要)。

    动作描述      使用聚集索引 使用非聚集索引
    ---------------------------  ------------ --------------
    外键列         应           应
    主键列              应          应
    列经常被分组排序(order by)   应        应
    返回某范围内的数据           应     不应
    小数目的不同值        应    不应
    大数目的不同值           不应     应
    频繁更新的列       不应    应
    频繁修改索引列      不应         应
    一个或极少不同值    不应    不应


    事实上,我们可以通过前面聚集索引和非聚集索引的定义的例子来理解上表。如:返回某范围内的数据一项。比如您的某个表有一个时间列,恰好您把聚合索引建立在了该列,这时您查询2004年1月1日至2004年10月1日之间的全部数据时,这个速度就将是很快的,因为您的这本字典正文是按日期进行排序的,聚类索引只需要找到要检索的所有数据中的开头和结尾数据即可;而不像非聚集索引,必须先查到目录中查到每一项数据对应的页码,然后再根据页码查到具体内容。


    (三)结合实际,谈索引使用的误区

    理论的目的是应用。虽然我们刚才列出了何时应使用聚集索引或非聚集索引,但在实践中以上规则却很容易被忽视或不能根据实际情况进行综合分析。下面我们将根据在实践中遇到的实际问题来谈一下索引使用的误区,以便于大家掌握索引建立的方法。

    1、主键就是聚集索引

    这种想法笔者认为是极端错误的,是对聚集索引的一种浪费。虽然SQL SERVER默认是在主键上建立聚集索引的。

    通常,我们会在每个表中都建立一个ID列,以区分每条数据,并且这个ID列是自动增大的,步长一般为1。我们的这个办公自动化的实例中的列Gid就是如此。此时,如果我们将这个列设为主键,SQL SERVER会将此列默认为聚集索引。这样做有好处,就是可以让您的数据在数据库中按照ID进行物理排序,但笔者认为这样做意义不大。

    显而易见,聚集索引的优势是很明显的,而每个表中只能有一个聚集索引的规则,这使得聚集索引变得更加珍贵。

    从我们前面谈到的聚集索引的定义我们可以看出,使用聚集索引的最大好处就是能够根据查询要求,迅速缩小查询范围,避免全表扫描。在实际应用中,因为ID号是自动生成的,我们并不知道每条记录的ID号,所以我们很难在实践中用ID号来进行查询。这就使让ID号这个主键作为聚集索引成为一种资源浪费。其次,让每个ID号都不同的字段作为聚集索引也不符合“大数目的不同值情况下不应建立聚合索引”规则;当然,这种情况只是针对用户经常修改记录内容,特别是索引项的时候会负作用,但对于查询速度并没有影响。

    在办公自动化系统中,无论是系统首页显示的需要用户签收的文件、会议还是用户进行文件查询等任何情况下进行数据查询都离不开字段的是“日期”还有用户本身的“用户名”。

    通常,办公自动化的首页会显示每个用户尚未签收的文件或会议。虽然我们的where语句可以仅仅限制当前用户尚未签收的情况,但如果您的系统已建立了很长时间,并且数据量很大,那么,每次每个用户打开首页的时候都进行一次全表扫描,这样做意义是不大的,绝大多数的用户1个月前的文件都已经浏览过了,这样做只能徒增数据库的开销而已。事实上,我们完全可以让用户打开系统首页时,数据库仅仅查询这个用户近3个月来未阅览的文件,通过“日期”这个字段来限制表扫描,提高查询速度。如果您的办公自动化系统已经建立的2年,那么您的首页显示速度理论上将是原来速度8倍,甚至更快。

    在这里之所以提到“理论上”三字,是因为如果您的聚集索引还是盲目地建在ID这个主键上时,您的查询速度是没有这么高的,即使您在“日期”这个字段上建立的索引(非聚合索引)。下面我们就来看一下在1000万条数据量的情况下各种查询的速度表现(3个月内的数据为25万条):

    (1)仅在主键上建立聚集索引,并且不划分时间段:

    Select gid,fariqi,neibuyonghu,title from tgongwen

    用时:128470毫秒(即:128秒)

    (2)在主键上建立聚集索引,在fariq上建立非聚集索引:

    select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi> dateadd(day,-90,getdate())

    用时:53763毫秒(54秒)

    (3)将聚合索引建立在日期列(fariqi)上:

    select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi> dateadd(day,-90,getdate())

    用时:2423毫秒(2秒)

    虽然每条语句提取出来的都是25万条数据,各种情况的差异却是巨大的,特别是将聚集索引建立在日期列时的差异。事实上,如果您的数据库真的有1000万容量的话,把主键建立在ID列上,就像以上的第1、2种情况,在网页上的表现就是超时,根本就无法显示。这也是我摒弃ID列作为聚集索引的一个最重要的因素。

    得出以上速度的方法是:在各个select语句前加:

    declare @d datetime
    set @d=getdate()

    并在select语句后加:

    select [语句执行花费时间(毫秒)]=datediff(ms,@d,getdate())


    2、只要建立索引就能显著提高查询速度

    事实上,我们可以发现上面的例子中,第2、3条语句完全相同,且建立索引的字段也相同;不同的仅是前者在fariqi字段上建立的是非聚合索引,后者在此字段上建立的是聚合索引,但查询速度却有着天壤之别。所以,并非是在任何字段上简单地建立索引就能提高查询速度。

    从建表的语句中,我们可以看到这个有着1000万数据的表中fariqi字段有5003个不同记录。在此字段上建立聚合索引是再合适不过了。在现实中,我们每天都会发几个文件,这几个文件的发文日期就相同,这完全符合建立聚集索引要求的:“既不能绝大多数都相同,又不能只有极少数相同”的规则。由此看来,我们建立“适当”的聚合索引对于我们提高查询速度是非常重要的。

    3、把所有需要提高查询速度的字段都加进聚集索引,以提高查询速度

    上面已经谈到:在进行数据查询时都离不开字段的是“日期”还有用户本身的“用户名”。既然这两个字段都是如此的重要,我们可以把他们合并起来,建立一个复合索引(compound index)。

    很多人认为只要把任何字段加进聚集索引,就能提高查询速度,也有人感到迷惑:如果把复合的聚集索引字段分开查询,那么查询速度会减慢吗?带着这个问题,我们来看一下以下的查询速度(结果集都是25万条数据):(日期列fariqi首先排在复合聚集索引的起始列,用户名neibuyonghu排在后列)

    (1)select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi>'2004-5-5'

    查询速度:2513毫秒

    (2)select gid,fariqi,neibuyonghu,title from Tgongwen
    where fariqi>'2004-5-5' and neibuyonghu='办公室'

    查询速度:2516毫秒

    (3)select gid,fariqi,neibuyonghu,title from Tgongwen
    where neibuyonghu='办公室'

    查询速度:60280毫秒

    从以上试验中,我们可以看到如果仅用聚集索引的起始列作为查询条件和同时用到复合聚集索引的全部列的查询速度是几乎一样的,甚至比用上全部的复合索引列还要略快(在查询结果集数目一样的情况下);而如果仅用复合聚集索引的非起始列作为查询条件的话,这个索引是不起任何作用的。当然,语句1、2的查询速度一样是因为查询的条目数一样,如果复合索引的所有列都用上,而且查询结果少的话,这样就会形成“索引覆盖”,因而性能可以达到最优。同时,请记住:无论您是否经常使用聚合索引的其他列,但其前导列一定要是使用最频繁的列。


    (四)其他书上没有的索引使用经验总结

    1、用聚合索引比用不是聚合索引的主键速度快

    下面是实例语句:(都是提取25万条数据)

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16'

    使用时间:3326毫秒

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid<=250000

    使用时间:4470毫秒

    这里,用聚合索引比用不是聚合索引的主键速度快了近1/4。


    2、用聚合索引比用一般的主键作order by时速度快,特别是在小数据量情况下

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen order by fariqi

    用时:12936

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen order by gid

    用时:18843

    这里,用聚合索引比用一般的主键作order by时,速度快了3/10。事实上,如果数据量很小的话,用聚集索引作为排序列要比使用非聚集索引速度快得明显的多;而数据量如果很大的话,如10万以上,则二者的速度差别不明显。


    3、使用聚合索引内的时间段,搜索时间会按数据占整个数据表的百分比成比例减少,而无论聚合索引使用了多少个

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi>'2004-1-1'

    用时:6343毫秒(提取100万条)

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi>'2004-6-6'

    用时:3170毫秒(提取50万条)

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16'

    用时:3326毫秒(和上句的结果一模一样。如果采集的数量一样,那么用大于号和等于号是一样的)

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi>'2004-1-1' and fariqi<'2004-6-6'

    用时:3280毫秒


    4 、日期列不会因为有分秒的输入而减慢查询速度

    下面的例子中,共有100万条数据,2004年1月1日以后的数据有50万条,但只有两个不同的日期,日期精确到日;之前有数据50万条,有5000个不同的日期,日期精确到秒。

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi>'2004-1-1' order by fariqi

    用时:6390毫秒

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi<'2004-1-1' order by fariqi

    用时:6453毫秒

    (五)其他注意事项

    “水可载舟,亦可覆舟”,索引也一样。索引有助于提高检索性能,但过多或不当的索引也会导致系统低效。过多的索引甚至会导致索引碎片。
    索引是从数据库中获取数据的最高效方式之一。95%的数据库性能问题都可以采用索引技术得到解决。

    1. 不要索引常用的小型表

    不要为小型数据表设置任何键,假如它们经常有插入和删除操作就更别这样作了。对这些插入和删除操作的索引维护可能比扫描表空间消耗更多的时间。

    2. 不要把社会保障号码(SSN)或身份证号码(ID)选作键

    永远都不要使用 SSN 或 ID 作为数据库的键。除了隐私原因以外,SSN 或 ID 需要手工输入。永远不要使用手工输入的键作为主键,因为一旦你输入错误,你唯一能做的就是删除整个记录然后从头开始。

    3. 不要用用户的键

    在确定采用什么字段作为表的键的时候,可一定要小心用户将要编辑的字段。通常的情况下不要选择用户可编辑的字段作为键。这样做会迫使你采取以下两个措施:

    4. 不要索引 memo/notes 字段和不要索引大型文本字段(许多字符)

    这样做会让你的索引占据大量的数据库空间

    5. 使用系统生成的主键

    假如你总是在设计数据库的时候采用系统生成的键作为主键,那么你实际控制了数据库的索引完整性。这样,数据库和非人工机制就有效地控制了对存储数据中每一行的访问。
    采用系统生成键作为主键还有一个优点:当你拥有一致的键结构时,找到逻辑缺陷很容易。


    二、改善SQL语句

    很多人不知道SQL语句在SQL SERVER中是如何执行的,他们担心自己所写的SQL语句会被SQL SERVER误解。比如:

    select * from table1 where name='zhangsan' and tID > 10000

    和执行:

    select * from table1 where tID > 10000 and name='zhangsan'

    一些人不知道以上两条语句的执行效率是否一样,因为如果简单的从语句先后上看,这两个语句的确是不一样,如果tID是一个聚合索引,那么后一句仅仅从表的10000条以后的记录中查找就行了;而前一句则要先从全表中查找看有几个name='zhangsan'的,而后再根据限制条件条件tID>10000来提出查询结果。

    事实上,这样的担心是不必要的。SQL SERVER中有一个“查询分析优化器”,它可以计算出where子句中的搜索条件并确定哪个索引能缩小表扫描的搜索空间,也就是说,它能实现自动优化。

    虽然查询优化器可以根据where子句自动的进行查询优化,但大家仍然有必要了解一下“查询优化器”的工作原理,如非这样,有时查询优化器就会不按照您的本意进行快速查询。

    在查询分析阶段,查询优化器查看查询的每个阶段并决定限制需要扫描的数据量是否有用。如果一个阶段可以被用作一个扫描参数(SARG),那么就称之为可优化的,并且可以利用索引快速获得所需数据。

    SARG的定义:用于限制搜索的一个操作,因为它通常是指一个特定的匹配,一个值得范围内的匹配或者两个以上条件的AND连接。形式如下:

    列名 操作符 <常数 或 变量>

    <常数 或 变量> 操作符列名

    列名可以出现在操作符的一边,而常数或变量出现在操作符的另一边。如:

    Name=’张三’

    价格>5000

    5000<价格

    Name=’张三’ and 价格>5000

    如果一个表达式不能满足SARG的形式,那它就无法限制搜索的范围了,也就是SQL SERVER必须对每一行都判断它是否满足WHERE子句中的所有条件。所以一个索引对于不满足SARG形式的表达式来说是无用的。

    介绍完SARG后,我们来总结一下使用SARG以及在实践中遇到的和某些资料上结论不同的经验:

    1、Like语句是否属于SARG取决于所使用的通配符的类型

    如:name like ‘张%’ ,这就属于SARG
    而:name like ‘%张’ ,就不属于SARG。

    原因是通配符%在字符串的开通使得索引无法使用。

    2、or 会引起全表扫描

    如:Name=’张三’ and 价格>5000 符号SARG,
    而:Name=’张三’ or  价格>5000 则不符合SARG。
    使用or会引起全表扫描。

    3、非操作符、函数引起的不满足SARG形式的语句

    不满足SARG形式的语句最典型的情况就是包括非操作符的语句,如:NOT、!=、<>、!<、!>、NOT EXISTS、NOT IN、NOT LIKE等,另外还有函数。下面就是几个不满足SARG形式的例子:

    ABS(价格)<5000
    Name like ‘%三’

    有些表达式,如:

    WHERE 价格*2>5000
    SQL SERVER也会认为是SARG,SQL SERVER会将此式转化为:
    WHERE 价格>2500/2

    但我们不推荐这样使用,因为有时SQL SERVER不能保证这种转化与原始表达式是完全等价的。

    4、IN 的作用相当与OR

    语句:

    Select * from table1 where tid in (2,3)

    Select * from table1 where tid=2 or tid=3

    是一样的,都会引起全表扫描,如果tid上有索引,其索引也会失效。

    5、尽量少用NOT

    6、exists 和 in 的执行效率是一样的

    很多资料上都显示说,exists要比in的执行效率要高,同时应尽可能的用not exists来代替not in。但事实上,我试验了一下,发现二者无论是前面带不带not,二者之间的执行效率都是一样的。因为涉及子查询,我们试验这次用SQL SERVER自带的pubs数据库。运行前我们可以把SQL SERVER的statistics I/O状态打开。

    (1)select title,price from titles where title_id in
    (select title_id from sales where qty>30)

    该句的执行结果为:
    表 'sales'。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。
    表 'titles'。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。

    (2)select title,price from titles where exists
    (select * from sales where sales.title_id=titles.title_id and qty>30)

    第二句的执行结果为:
    表 'sales'。扫描计数 18,逻辑读 56 次,物理读 0 次,预读 0 次。
    表 'titles'。扫描计数 1,逻辑读 2 次,物理读 0 次,预读 0 次。

    我们从此可以看到用exists和用in的执行效率是一样的。

    7、用函数charindex()和前面加通配符%的LIKE执行效率一样

    前面,我们谈到,如果在LIKE前面加上通配符%,那么将会引起全表扫描,所以其执行效率是低下的。但有的资料介绍说,用函数charindex()来代替LIKE速度会有大的提升,经我试验,发现这种说明也是错误的:

    select gid,title,fariqi,reader from tgongwen
    where charindex('刑侦支队',reader)>0 and fariqi>'2004-5-5'

    用时:7秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。

    select gid,title,fariqi,reader from tgongwen
    where reader like '%' + '刑侦支队' + '%' and fariqi>'2004-5-5'

    用时:7秒,另外:扫描计数 4,逻辑读 7155 次,物理读 0 次,预读 0 次。

    8、union并不绝对比or的执行效率高

    我们前面已经谈到了在where子句中使用or会引起全表扫描,一般的,我所见过的资料都是推荐这里用union来代替or。事实证明,这种说法对于大部分都是适用的。

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16' or gid>9990000

    用时:68秒。扫描计数 1,逻辑读 404008 次,物理读 283 次,预读 392163 次。

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16'
    union
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen where gid>9990000

    用时:9秒。扫描计数 8,逻辑读 67489 次,物理读 216 次,预读 7499 次。

    看来,用union在通常情况下比用or的效率要高的多。

    但经过试验,笔者发现如果or两边的查询列是一样的话,那么用union则反倒和用or的执行速度差很多,虽然这里union扫描的是索引,而or扫描的是全表。

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16' or fariqi='2004-2-5'

    用时:6423毫秒。扫描计数 2,逻辑读 14726 次,物理读 1 次,预读 7176 次。

    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where fariqi='2004-9-16'
    union
    select gid,fariqi,neibuyonghu,reader,title from Tgongwen
    where  fariqi='2004-2-5'

    用时:11640毫秒。扫描计数 8,逻辑读 14806 次,物理读 108 次,预读 1144 次。

    9、字段提取要按照“需多少、提多少”的原则,避免“select *”

    我们来做一个试验:

    select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

    用时:4673毫秒

    select top 10000 gid,fariqi,title from tgongwen order by gid desc

    用时:1376毫秒

    select top 10000 gid,fariqi from tgongwen order by gid desc

    用时:80毫秒

    由此看来,我们每少提取一个字段,数据的提取速度就会有相应的提升。提升的速度还要看您舍弃的字段的大小来判断。

    10、count(*)不比count(字段)慢

    某些资料上说:用*会统计所有列,显然要比一个世界的列名效率低。这种说法其实是没有根据的。我们来看:

    select count(*) from Tgongwen

    用时:1500毫秒

    select count(gid) from Tgongwen

    用时:1483毫秒

    select count(fariqi) from Tgongwen

    用时:3140毫秒

    select count(title) from Tgongwen

    用时:52050毫秒

    从以上可以看出,如果用count(*)和用count(主键)的速度是相当的,而count(*)却比其他任何除主键以外的字段汇总速度要快,而且字段越长,汇总的速度就越慢。我想,如果用count(*), SQL SERVER可能会自动查找最小字段来汇总的。当然,如果您直接写count(主键)将会来的更直接些。

    11、order by按聚集索引列排序效率最高

    我们来看:(gid是主键,fariqi是聚合索引列)

    select top 10000 gid,fariqi,reader,title from tgongwen

    用时:196 毫秒。 扫描计数 1,逻辑读 289 次,物理读 1 次,预读 1527 次。

    select top 10000 gid,fariqi,reader,title from tgongwen order by gid asc

    用时:4720毫秒。 扫描计数 1,逻辑读 41956 次,物理读 0 次,预读 1287 次。

    select top 10000 gid,fariqi,reader,title from tgongwen order by gid desc

    用时:4736毫秒。 扫描计数 1,逻辑读 55350 次,物理读 10 次,预读 775 次。

    select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi asc

    用时:173毫秒。 扫描计数 1,逻辑读 290 次,物理读 0 次,预读 0 次。

    select top 10000 gid,fariqi,reader,title from tgongwen order by fariqi desc

    用时:156毫秒。 扫描计数 1,逻辑读 289 次,物理读 0 次,预读 0 次。

    从以上我们可以看出,不排序的速度以及逻辑读次数都是和“order by 聚集索引列” 的速度是相当的,但这些都比“order by 非聚集索引列”的查询速度是快得多的。

    同时,按照某个字段进行排序的时候,无论是正序还是倒序,速度是基本相当的。

    12、高效的TOP

    事实上,在查询和提取超大容量的数据集时,影响数据库响应时间的最大因素不是数据查找,而是物理的I/0操作。如:

    select top 10 * from (
    select top 10000 gid,fariqi,title from tgongwen
    where neibuyonghu='办公室'order by gid desc) as a
    order by gid asc

    这条语句,从理论上讲,整条语句的执行时间应该比子句的执行时间长,但事实相反。因为,子句执行后返回的是10000条记录,而整条语句仅返回10条语句,所以影响数据库响应时间最大的因素是物理I/O操作。而限制物理I/O操作此处的最有效方法之一就是使用TOP关键词了。TOP关键词是SQL SERVER中经过系统优化过的一个用来提取前几条或前几个百分比数据的词。经笔者在实践中的应用,发现TOP确实很好用,效率也很高。但这个词在另外一个大型数据库ORACLE中却没有,这不能说不是一个遗憾,虽然在ORACLE中可以用其他方法(如:rownumber)来解决。在以后的关于“实现千万级数据的分页显示存储过程”的讨论中,我们就将用到TOP这个关键词。

    到此为止,我们上面讨论了如何实现从大容量的数据库中快速地查询出您所需要的数据方法。当然,我们介绍的这些方法都是“软”方法,在实践中,我们还要考虑各种“硬”因素,如:网络性能、服务器的性能、操作系统的性能,甚至网卡、交换机等。


    三、实现小数据量和海量数据的通用分页显示存储过程

    建立一个web 应用,分页浏览功能必不可少。这个问题是数据库处理中十分常见的问题。经典的数据分页方法是:ADO 纪录集分页法,也就是利用ADO自带的分页功能(利用游标)来实现分页。但这种分页方法仅适用于较小数据量的情形,因为游标本身有缺点:游标是存放在内存中,很费内存。游标一建立,就将相关的记录锁住,直到取消游标。游标提供了对特定集合中逐行扫描的手段,一般使用游标来逐行遍历数据,根据取出数据条件的不同进行不同的操作。而对于多表和大表中定义的游标(大的数据集合)循环很容易使程序进入一个漫长的等待甚至死机。

    更重要的是,对于非常大的数据模型而言,分页检索时,如果按照传统的每次都加载整个数据源的方法是非常浪费资源的。现在流行的分页方法一般是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行。

    最早较好地实现这种根据页面大小和页码来提取数据的方法大概就是“俄罗斯存储过程”。这个存储过程用了游标,由于游标的局限性,所以这个方法并没有得到大家的普遍认可。

    后来,网上有人改造了此存储过程,下面的存储过程就是结合我们的办公自动化实例写的分页存储过程:

    CREATE procedure pagination1
    (@pagesize int,  --页面大小,如每页存储20条记录
    @pageindex int   --当前页码
    )
    as
    set nocount on    //不返回计数,不返回任何结果集
    begin
    declare @indextable table(id int identity(1,1),nid int)  --定义表变量
    declare @PageLowerBound int      --定义此页的底码
    declare @PageUpperBound int      --定义此页的顶码
    set @PageLowerBound=(@pageindex-1)*@pagesize
    set @PageUpperBound=@PageLowerBound+@pagesize
    set rowcount @PageUpperBound
    insert into @indextable(nid) select gid from TGongwen where fariqi  > dateadd(day,-365,getdate()) order by fariqi desc
    select O.gid,O.mid,O.title,O.fadanwei,O.fariqi from TGongwen O, @indextable t where O.gid=t.nid
    and t.id>@PageLowerBound and t.id<=@PageUpperBound order by t.id
    end
    set nocount off  //返回计数,返回任何结果集


    以上存储过程运用了SQL SERVER的最新技术――表变量。应该说这个存储过程也是一个非常优秀的分页存储过程。当然,在这个过程中,您也可以把其中的表变量写成临时表:CREATE TABLE #Temp。但很明显,在SQL SERVER中,用临时表是没有用表变量快的。所以笔者刚开始使用这个存储过程时,感觉非常的不错,速度也比原来的ADO的好。但后来,我又发现了比此方法更好的方法。

    笔者曾在网上看到了一篇小短文《从数据表中取出第n条到第m条的记录的方法》,全文如下:

    从publish 表中取出第 n 条到第 m 条的记录:

    SELECT TOP m-n+1 *
    FROM publish
    WHERE (id NOT IN (SELECT TOP n-1 id FROM publish))

    id 为publish 表的关键字

    我当时看到这篇文章的时候,真的是精神为之一振,觉得思路非常得好。等到后来,我在作办公自动化系统(ASP.NET+ C#+SQL SERVER)的时候,忽然想起了这篇文章,我想如果把这个语句改造一下,这就可能是一个非常好的分页存储过程。于是我就满网上找这篇文章,没想到,文章还没找到,却找到了一篇根据此语句写的一个分页存储过程,这个存储过程也是目前较为流行的一种分页存储过程,我很后悔没有争先把这段文字改造成存储过程:

    CREATE PROCEDURE pagination2
    (
     @SQL nVARCHAR(4000),    --不带排序语句的SQL语句
     @Page int,              --页码
     @RecsPerPage int,       --每页容纳的记录数
     @ID VARCHAR(255),       --需要排序的不重复的ID号
     @Sort VARCHAR(255)      --排序字段及规则
    )
    AS

    DECLARE @Str nVARCHAR(4000)

    SET @Str='SELECT   TOP '+CAST(@RecsPerPage AS VARCHAR(20))+' * FROM ('+@SQL+') T WHERE T.'+@ID+'NOT IN
    (SELECT   TOP '+CAST((@RecsPerPage*(@Page-1)) AS VARCHAR(20))+' '+@ID+' FROM ('+@SQL+') T9 ORDER BY '+@Sort+') ORDER BY '+@Sort

    PRINT @Str

    EXEC sp_ExecuteSql @Str
    GO

    其实,以上语句可以简化为:

    SELECT TOP 页大小 *
    FROM Table1
    WHERE (ID NOT IN
              (SELECT TOP 页大小*页数 id
             FROM 表
             ORDER BY id))
    ORDER BY ID

    但这个存储过程有一个致命的缺点,就是它含有NOT IN字样。虽然我可以把它改造为:

    SELECT TOP 页大小 *
    FROM Table1
    WHERE not exists
    (select * from (select top (页大小*页数) * from table1 order by id) b
       where b.id=a.id )
    order by id

    即,用not exists来代替not in,但我们前面已经谈过了,二者的执行效率实际上是没有区别的。

    既便如此,用TOP 结合NOT IN的这个方法还是比用游标要来得快一些。

    虽然用not exists并不能挽救上个存储过程的效率,但使用SQL SERVER中的TOP关键字却是一个非常明智的选择。因为分页优化的最终目的就是避免产生过大的记录集,而我们在前面也已经提到了TOP的优势,通过TOP 即可实现对数据量的控制。

    在分页算法中,影响我们查询速度的关键因素有两点:TOP和NOT IN。TOP可以提高我们的查询速度,而NOT IN会减慢我们的查询速度,所以要提高我们整个分页算法的速度,就要彻底改造NOT IN,同其他方法来替代它。

    我们知道,几乎任何字段,我们都可以通过max(字段)或min(字段)来提取某个字段中的最大或最小值,所以如果这个字段不重复,那么就可以利用这些不重复的字段的max或min作为分水岭,使其成为分页算法中分开每页的参照物。在这里,我们可以用操作符“>”或“<”号来完成这个使命,使查询语句符合SARG形式。如:

    Select top 10 * from table1 where id>200

    于是就有了如下分页方案:

    select top 页大小 *
    from table1
    where id>
          (select max (id) from
          (select top ((页码-1)*页大小) id from table1 order by id) as T
           )    
    order by id

    在选择即不重复值,又容易分辨大小的列时,我们通常会选择主键。下表列出了笔者用有着1000万数据的办公自动化系统中的表,在以GID(GID是主键,但并不是聚集索引。)为排序列、提取gid,fariqi,title字段,分别以第1、10、100、500、1000、1万、10万、25万、50万页为例,测试以上三种分页方案的执行速度:(单位:毫秒)

    页  码        方案1            方案2           方案3
    -----------   -----------    ---------  ------------
    1             60             30              76
    10              46             16              63
    100            1076            720             130
    500            540             12943           83
    1000          17110          470             250
    1万             24796           4500            140
    10万           38326           42283           1553
    25万           28140           128720          2330
    50万           121686         127846          7168


     从上表中,我们可以看出,三种存储过程在执行100页以下的分页命令时,都是可以信任的,速度都很好。但第一种方案在执行分页1000页以上后,速度就降了下来。第二种方案大约是在执行分页1万页以上后速度开始降了下来。而第三种方案却始终没有大的降势,后劲仍然很足。

    在确定了第三种分页方案后,我们可以据此写一个存储过程。大家知道SQL SERVER的存储过程是事先编译好的SQL语句,它的执行效率要比通过WEB页面传来的SQL语句的执行效率要高。下面的存储过程不仅含有分页方案,还会根据页面传来的参数来确定是否进行数据总数统计。

    -- 获取指定页的数据

    CREATE PROCEDURE pagination3
    @tblName varchar(255),          -- 表名
    @strGetFields varchar(1000) = '*',   -- 需要返回的列
    @fldName varchar(255)='',         -- 排序的字段名
    @PageSize int = 10,             -- 页尺寸(每页记录数)
    @PageIndex int = 1,              -- 页码
    @doCount bit = 0,        -- 返回记录总数, 非0值则返回记录数
    @OrderType bit = 0,       -- 设置排序类型, 非0值则降序
    @strWhere  varchar(1500) = ''     -- 查询条件 (注意: 不要加 where)
    AS
    declare @strSQL   varchar(5000)        -- 主语句
    declare @strTmp   varchar(110)         -- 临时变量
    declare @strOrder varchar(400)         -- 排序类型

    if @doCount != 0
      begin
        if @strWhere !=''
           set @strSQL = "select count(*) as Total from [" + @tblName + "] where "+@strWhere
        else
           set @strSQL = "select count(*) as Total from [" + @tblName + "]"
     end   --以上代码的意思是如果@doCount传递过来的不是0,就执行总数统计。以下的所有代码都是@doCount为0的情况
    else
    begin
    if @OrderType != 0         // 降序(desc)
    begin
        set @strTmp = "<(select min"
    set @strOrder = " order by [" + @fldName +"] desc"
    --如果@OrderType不是0,就执行降序,这句很重要!
    end
    else      // 升序(asc)
    begin
        set @strTmp = ">(select max"
        set @strOrder = " order by [" + @fldName +"] asc"
    end

    if @PageIndex = 1   // 页码
    begin
        if @strWhere != ''  
    set @strSQL = "select top " +str(@PageSize)+ " " +@strGetFields+ " from [" + @tblName + "] where " + @strWhere + " " + @strOrder
            else
    set @strSQL = "select top " +str(@PageSize)+" " +@strGetFields+ "  from [" +@tblName+ "] " +@strOrder
    --如果是第一页就执行以上代码,这样会加快执行速度
    end
    else
    begin --以下代码赋予了@strSQL以真正执行的SQL代码
    set @strSQL = "select top " +str(@PageSize)+ " " +@strGetFields+ "  from [" +@tblName+ "] where [" +@fldName+ "]" +@strTmp+ "([" +@fldName+ "]) from (select top " +str((@PageIndex-1)*@PageSize)+ " [" +@fldName+ "] from [" +@tblName+ "]" +@strOrder+ ") as tblTmp)" +@strOrder

    if @strWhere != ''
    set @strSQL ="select top " +str(@PageSize)+ " " +@strGetFields+ "  from [" +@tblName+ "] where [" +@fldName+ "]" +@strTmp+ "([" +@fldName+ "]) from (select top " +str((@PageIndex-1)*@PageSize) + " [" +@fldName+ "] from [" +@tblName+ "] where " +@strWhere+ " " +@strOrder+ ") as tblTmp) and " +@strWhere+ " " +@strOrder
    end
    end  
    exec (@strSQL)
    GO

    上面的这个存储过程是一个通用的存储过程,其注释已写在其中了。

    select top 页大小 *
    from table1
    where id >
          (select max (id) from
          (select top ((页码-1)*页大小) id from table1 order by id) as T
           )    
    order by id

    在大数据量的情况下,特别是在查询最后几页的时候,查询时间一般不会超过9秒;而用其他存储过程,在实践中就会导致超时,所以这个存储过程非常适用于大容量数据库的查询。

    笔者希望能够通过对以上存储过程的解析,能给大家带来一定的启示,并给工作带来一定的效率提升,同时希望同行提出更优秀的实时数据分页算法。


    四、聚集索引的重要性和如何选择聚集索引

    在上一节的标题中,笔者写的是:实现小数据量和海量数据的通用分页显示存储过程。这是因为在将本存储过程应用于“办公自动化”系统的实践中时,笔者发现这第三种存储过程在小数据量的情况下,有如下现象:

    1、分页速度一般维持在1秒和3秒之间。

    2、在查询最后一页时,速度一般为5秒至8秒,哪怕分页总数只有3页或30万页。

    虽然在超大容量情况下,这个分页的实现过程是很快的,但在分前几页时,这个1-3秒的速度比起第一种甚至没有经过优化的分页方法速度还要慢,借用户的话说就是“还没有ACCESS数据库速度快”,这个认识足以导致用户放弃使用您开发的系统。

    笔者就此分析了一下,原来产生这种现象的症结是如此的简单,但又如此的重要:排序的字段不是聚集索引!

    本篇文章的题目是:“查询优化及分页算法方案”。笔者只所以把“查询优化”和“分页算法”这两个联系不是很大的论题放在一起,就是因为二者都需要一个非常重要的东西――聚集索引。

    在前面的讨论中我们已经提到了,聚集索引有两个最大的优势:

    1、以最快的速度缩小查询范围。
    2、以最快的速度进行字段排序。

    第1条多用在查询优化时,而第2条多用在进行分页时的数据排序。

    而聚集索引在每个表内又只能建立一个,这使得聚集索引显得更加的重要。聚集索引的挑选可以说是实现“查询优化”和“高效分页”的最关键因素。

    但要既使聚集索引列既符合查询列的需要,又符合排序列的需要,这通常是一个矛盾。

    笔者前面“索引”的讨论中,将fariqi,即用户发文日期作为了聚集索引的起始列,日期的精确度为“日”。这种作法的优点,前面已经提到了,在进行划时间段的快速查询中,比用ID主键列有很大的优势。

    但在分页时,由于这个聚集索引列存在着重复记录,所以无法使用max或min来最为分页的参照物,进而无法实现更为高效的排序。而如果将ID主键列作为聚集索引,那么聚集索引除了用以排序之外,没有任何用处,实际上是浪费了聚集索引这个宝贵的资源。

    为解决这个矛盾,笔者后来又添加了一个日期列,其默认值为getdate()。用户在写入记录时,这个列自动写入当时的时间,时间精确到毫秒。即使这样,为了避免可能性很小的重合,还要在此列上创建UNIQUE约束。将此日期列作为聚集索引列。

    有了这个时间型聚集索引列之后,用户就既可以用这个列查找用户在插入数据时的某个时间段的查询,又可以作为唯一列来实现max或min,成为分页算法的参照物。

    经过这样的优化,笔者发现,无论是大数据量的情况下还是小数据量的情况下,分页速度一般都是几十毫秒,甚至0毫秒。而用日期段缩小范围的查询速度比原来也没有任何迟钝。

    聚集索引是如此的重要和珍贵,所以笔者总结了一下,一定要将聚集索引建立在:

    1、您最频繁使用的、用以缩小查询范围的字段上;
    2、您最频繁使用的、需要排序的字段上。


    结束语:

    本篇文章汇集了笔者近段在使用数据库方面的心得,是在做“办公自动化”系统时实践经验的积累。希望这篇文章不仅能够给大家的工作带来一定的帮助,也希望能让大家能够体会到分析问题的方法;最重要的是,希望这篇文章能够抛砖引玉,掀起大家的学习和讨论的兴趣,以共同促进,共同为公安科技强警事业和金盾工程做出自己最大的努力。

    最后需要说明的是,在试验中,我发现用户在进行大数据量查询的时候,对数据库速度影响最大的不是内存大小,而是CPU。在我的P4 2.4机器上试验的时候,查看“资源管理器”,CPU经常出现持续到100%的现象,而内存用量却并没有改变或者说没有大的改变。即使在我们的HP ML 350 G3服务器上试验时,CPU峰值也能达到90%,一般持续在70%左右。

    本文的试验数据都是来自我们的HP ML 350服务器。服务器配置:双Inter Xeon 超线程 CPU 2.4G,内存1G,操作系统Windows Server 2003 Enterprise Edition,数据库SQL Server 2000 SP3。

  • DECLARE CURSOR

    2007-05-28 19:51:31

    SQL Server 2005 联机丛书
    DECLARE CURSOR (Transact-SQL)

    更新日期: 2005 年 12 月 5 日

    定义 Transact-SQL 服务器游标的属性,例如游标的滚动行为和用于生成游标所操作的结果集的查询。DECLARE CURSOR 接受基于 SQL-92 标准的语法和使用一组 Transact-SQL 扩展插件的语法。

    主题链接图标 Transact-SQL 语法约定

    参数参数
    cursor_name

    所定义的 Transact-SQL 服务器游标的名称。cursor_name 必须符合标识符规则。有关标识符规则的详细信息,请参阅使用标识符作为对象名称

    INSENSITIVE

    定义一个游标,以创建将由该游标使用的数据的临时复本。对游标的所有请求都从 tempdb 中的这一临时表中得到应答;因此,在对该游标进行提取操作时返回的数据中不反映对基表所做的修改,并且该游标不允许修改。使用 SQL-92 语法时,如果省略 INSENSITIVE,则已提交的(任何用户)对基础表的删除和更新都反映在后面的提取中。

    SCROLL

    指定所有的提取选项(FIRST、LAST、PRIOR、NEXT、RELATIVE、ABSOLUTE)均可用。如果未在 SQL-92 DECLARE CURSOR 中指定 SCROLL,则 NEXT 是唯一支持的提取选项。如果也指定了 FAST_FORWARD,则不能指定 SCROLL。

    select_statement

    定义游标结果集的标准 SELECT 语句。在游标声明的 select_statement 内不允许使用关键字 COMPUTE、COMPUTE BY、FOR BROWSE 和 INTO。

    Microsoft 如果 select_statement 中的子句与所请求的游标类型的功能有冲突,则 SQL Server 会将游标隐式转换为其他类型。有关详细信息,请参阅使用隐式游标转换

    READ ONLY

    禁止通过该游标进行更新。在 UPDATE 或 DELETE 语句的 WHERE CURRENT OF 子句中不能引用游标。该选项优于要更新的游标的默认功能。

    UPDATE [OF column_name [,...n]]

    定义游标中可更新的列。如果指定了 OF column_name [,...n],则只允许修改列出的列。如果指定了 UPDATE,但未指定列的列表,则可以更新所有列。

    cursor_name

    所定义的 Transact-SQL 服务器游标的名称。cursor_name 必须符合标识符规则。有关标识符规则的详细信息,请参阅使用标识符作为对象名称

    LOCAL

    指定对于在其中创建的批处理、存储过程或触发器来说,该游标的作用域是局部的。该游标名称仅在这个作用域内有效。在批处理、存储过程、触发器或存储过程 OUTPUT 参数中,该游标可由局部游标变量引用。OUTPUT 参数用于将局部游标传递回调用批处理、存储过程或触发器,它们可在存储过程终止后给游标变量分配参数使其引用游标。除非 OUTPUT 参数将游标传递回来,否则游标将在批处理、存储过程或触发器终止时隐式释放。如果 OUTPUT 参数将游标传递回来,则游标在最后引用它的变量释放或离开作用域时释放。

    GLOBAL

    指定该游标的作用域对来说连接是全局的。在由连接执行的任何存储过程或批处理中,都可以引用该游标名称。该游标仅在断开连接时隐式释放。

    注意:
    如果 GLOBAL 和 LOCAL 参数都未指定,则默认值由 default to local cursor 数据库选项的设置控制。在 SQL Server 7.0 版中,该选项默认为 FALSE,以便与 SQL Server 的早期版本相匹配,在早期版本中,所有游标都是全局的。该选项的默认值在以后的 SQL Server 版本中可能会更改。有关详细信息,请参阅“设置数据库选项”。

    FORWARD_ONLY

    指定游标只能从第一行滚动到最后一行。FETCH NEXT 是唯一支持的提取选项。如果在指定 FORWARD_ONLY 时不指定 STATIC、KEYSET 和 DYNAMIC 关键字,则游标作为 DYNAMIC 游标进行操作。如果 FORWARD_ONLY 和 SCROLL 均未指定,则除非指定 STATIC、KEYSET 或 DYNAMIC 关键字,否则默认为 FORWARD_ONLY。STATIC、KEYSET 和 DYNAMIC 游标默认为 SCROLL。与 ODBC 和 ADO 这类数据库 API 不同,STATIC、KEYSET 和 DYNAMIC Transact-SQL 游标支持 FORWARD_ONLY。

    STATIC

    定义一个游标,以创建将由该游标使用的数据的临时复本。对游标的所有请求都从 tempdb 中的这一临时表中得到应答;因此,在对该游标进行提取操作时返回的数据中不反映对基表所做的修改,并且该游标不允许修改。

    KEYSET

    指定当游标打开时,游标中行的成员身份和顺序已经固定。对行进行唯一标识的键集内置在 tempdb 内一个称为 keyset 的表中。

    注意:
    如果查询引用了至少一个无唯一索引的表,则键集游标将转换为静态游标。

    对基表中的非键值所做的更改(由游标所有者更改或由其他用户提交)可以在用户滚动游标时看到。其他用户执行的插入是不可见的(不能通过 Transact-SQL 服务器游标执行插入)。如果删除行,则在尝试提取行时返回值为 -2 的 @@FETCH_STATUS。从游标以外更新键值类似于删除旧行然后再插入新行。具有新值的行是不可见的,并在尝试提取具有旧值的行时,将返回值为 -2 的 @@FETCH_STATUS。如果通过指定 WHERE CURRENT OF 子句利用游标来完成更新,则新值是可见的。

    DYNAMIC

    定义一个游标,以反映在滚动游标时对结果集内的各行所做的所有数据更改。行的数据值、顺序和成员身份在每次提取时都会更改。动态游标不支持 ABSOLUTE 提取选项。

    FAST_FORWARD

    指定启用了性能优化的 FORWARD_ONLY、READ_ONLY 游标。如果指定了 SCROLL 或 FOR_UPDATE,则不能也指定 FAST_FORWARD。

    注意:
    在 SQL Server 2000 中,FAST_FORWARD 和 FORWARD_ONLY 游标选项是互相排斥的。如果指定了二者,则会引发错误。在 SQL Server 2005 中,这两个关键字可以用在同一个 DECLARE CURSOR 语句中。

    READ_ONLY

    禁止通过该游标进行更新。在 UPDATE 或 DELETE 语句的 WHERE CURRENT OF 子句中不能引用游标。该选项优于要更新的游标的默认功能。

    SCROLL_LOCKS

    指定通过游标进行的定位更新或删除保证会成功。将行读取到游标中以确保它们对随后的修改可用时,Microsoft SQL Server 将锁定这些行。如果还指定了 FAST_FORWARD 或 STATIC,则不能指定 SCROLL_LOCKS。

    OPTIMISTIC

    指定如果行自从被读入游标以来已得到更新,则通过游标进行的定位更新或定位删除不会成功。当将行读入游标时 SQL Server 不会锁定行。相反,SQL Server 使用 timestamp 列值的比较,或者如果表没有 timestamp 列,则使用校验和值,以确定将行读入游标后是否已修改该行。如果已修改该行,则尝试进行的定位更新或删除将失败。如果还指定了 FAST_FORWARD,则不能指定 OPTIMISTIC。

    TYPE_WARNING

    指定如果游标从所请求的类型隐式转换为另一种类型,则向客户端发送警告消息。

    select_statement

    定义游标结果集的标准 SELECT 语句。在游标声明的 select_statement 内不允许使用关键字 COMPUTE、COMPUTE BY、FOR BROWSE 和 INTO。

    注意:
    您可以在游标声明中使用查询提示;但是,如果还使用 FOR UPDATE OF 子句,则请在 FOR UPDATE OF 之后指定 OPTION (query_hint)。

    如果 select_statement 中的子句与所请求的游标类型的功能有冲突,则 SQL Server 会将游标隐式转换为其他类型。有关详细信息,请参阅“隐式游标转换”。

    FOR UPDATE [OF column_name [,...n]]

    定义游标中可更新的列。如果提供了 OF column_name [,...n],则只允许修改列出的列。如果指定了 UPDATE,但未指定列的列表,则除非指定了 READ_ONLY 并发选项,否则可以更新所有的列。

    备注备注

    DECLARE CURSOR 定义 Transact-SQL 服务器游标的属性,例如游标的滚动行为和用于生成游标所操作的结果集的查询。OPEN 语句填充结果集,FETCH 从结果集返回行。CLOSE 语句释放与游标关联的当前结果集。DEALLOCATE 语句释放游标所使用的资源。

    DECLARE CURSOR 语句的第一种格式使用 SQL-92 语法声明游标行为。DECLARE CURSOR 的第二种格式使用 Transact-SQL 扩展插件,这些扩展插件允许您使用在 ODBC 或 ADO 的数据库 API 游标函数中所使用的相同游标类型来定义游标。

    不能混淆这两种格式。如果在 CURSOR 关键字的前面指定 SCROLL 或 INSENSITIVE 关键字,则不能在 CURSOR 和 FOR select_statement 关键字之间使用任何关键字。如果在 CURSOR 和 FOR select_statement 关键字之间指定任何关键字,则不能在 CURSOR 关键字的前面指定 SCROLL 或 INSENSITIVE。

    如果使用 Transact-SQL 语法的 DECLARE CURSOR 不指定 READ_ONLY、OPTIMISTIC 或 SCROLL_LOCKS,则默认值如下:

    • 如果 SELECT 语句不支持更新(由于权限不够、访问的远程表不支持更新等等),则游标为 READ_ONLY。
    • STATIC 和 FAST_FORWARD 游标默认为 READ_ONLY。
    • DYNAMIC 和 KEYSET 游标默认为 OPTIMISTIC。

    游标名称只能被其他 Transact-SQL 语句引用。它们不能被数据库 API 函数引用。例如,声明游标之后,不能通过 OLE DB、ODBC 或 ADO 函数或方法引用游标名称。不能使用提取函数或 API 的方法来提取游标行;只能通过 Transact-SQL FETCH 语句提取这些行。

    在声明游标后,可使用下列系统存储过程确定游标的特性。

    系统存储过程 说明

    sp_cursor_list

    返回当前在连接上可视的游标列表及其特性。

    sp_describe_cursor

    说明游标属性,例如是只前推的游标还是滚动游标。

    sp_describe_cursor_columns

    说明游标结果集中的列的属性。

    sp_describe_cursor_tables

    说明游标所访问的基表。

    在声明游标的 select_statement 中可以使用变量。游标变量值在声明游标后不发生更改。在 SQL Server 版本 6.5 以及早期版本中,每次重新打开游标时都会重新刷新变量值。

    示例示例

    A. 使用简单游标和语法

    在打开该游标时所生成的结果集包括表中的所有行和所有列。可以更新该游标,对该游标所做的所有更新和删除均在提取中表现出来。因为未指定 SCROLL 选项,所以 FETCH NEXT 是唯一可用的提取选项。

    DECLARE vend_cursor CURSOR
    FOR SELECT * FROM Purchasing.Vendor
    OPEN vend_cursor
    FETCH NEXT FROM vend_cursor

    B. 使用嵌套游标生成报表输出

    以下示例显示如何嵌套游标以生成复杂的报表。为每个供应商声明内部游标。

    SET NOCOUNT ON
    
    DECLARE @vendor_id int, @vendor_name nvarchar(50),
    @message varchar(80), @product nvarchar(50)
    
    PRINT '-------- Vendor Products Report --------'
    
    DECLARE vendor_cursor CURSOR FOR 
    SELECT VendorID, Name
    FROM Purchasing.Vendor
    WHERE PreferredVendorStatus = 1
    ORDER BY VendorID
    
    OPEN vendor_cursor
    
    FETCH NEXT FROM vendor_cursor 
    INTO @vendor_id, @vendor_name
    
    WHILE @@FETCH_STATUS = 0
    BEGIN
    PRINT ' '
    SELECT @message = '----- Products From Vendor: ' + 
    @vendor_name
    
    PRINT @message
    
    -- Declare an inner cursor based   
    -- on vendor_id from the outer cursor.
    
    DECLARE product_cursor CURSOR FOR 
    SELECT v.Name
    FROM Purchasing.ProductVendor pv, Production.Product v
    WHERE pv.ProductID = v.ProductID AND
    pv.VendorID = @vendor_id-- Variable value from the outer cursor
    
    OPEN product_cursor
    FETCH NEXT FROM product_cursor INTO @product
    
    IF @@FETCH_STATUS <> 0 
    PRINT '         <<None>>'     
    
    WHILE @@FETCH_STATUS = 0
    BEGIN
    
    SELECT @message = '         ' + @product
    PRINT @message
    FETCH NEXT FROM product_cursor INTO @product
    
    END
    
    CLOSE product_cursor
    DEALLOCATE product_cursor
    
    -- Get the next vendor.
    FETCH NEXT FROM vendor_cursor 
    INTO @vendor_id, @vendor_name
    END 
    CLOSE vendor_cursor
    DEALLOCATE vendor_cursor
  • Performance Tuning SQL Server Cursors

    2007-05-28 19:41:52

    Performance Tuning SQL Server Cursors




    If possible, avoid using SQL Server cursors. They generally use a lot of SQL Server resources and reduce the performance and scalability of your applications. If you need to perform row-by-row operations, try to find another method to perform the task.

    Here are some alternatives to using a cursor:

    • Use WHILE LOOPS
    • Use temp tables
    • Use derived tables
    • Use correlated sub-queries
    • Use the CASE statement
    • Perform multiple queries

    More often than not, there are non-cursor techniques that can be used to perform the same tasks as a SQL Server cursor. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    If you do find you must use a cursor, try to reduce the number of records to process.

    One way to do this is to move the records that need to be processed into a temp table first, then create the cursor to use the records in the temp table, not from the original table. This of course assumes that the subset of records to be inserted into the temp table are substantially less than those in the original table.

    The lower the number of records to process, the faster the cursor will finish. [6.5, 7.0, 2000, 2005] Updated 6-6-2005

    *****

    If the number of rows you need to return from a query is small, and you need to perform row-by-row operations on them, don't use a server-side cursor. Instead, consider returning the entire rowset to the client and have the client perform the necessary action on each row, then return any updated rows to the server. [6.5, 7.0, 2000, 2005] Updated 6-6-2005

    *****

    If you have no choice but to use a server-side cursor in your application, try to use a FORWARD-ONLY or FAST-FORWARD, READ-ONLY cursor. When working with unidirectional, read-only data, use the FAST_FORWARD option instead of the FORWARD_ONLY option, as it has some internal performance optimizations to speed performance. This type of cursor produces the least amount of overhead on SQL Server.

    If you are unable to use a fast-forward cursor, then try the following cursors, in this order, until you find one that meets your needs. They are listed in the order of their performance characteristics, from fastest to slowest: dynamic, static, and keyset. [6.5, 7.0, 2000, 2005] Updated 6-6-2005

    *****

    Avoid using static/insensitive and keyset cursors, unless you have no other choice. This is because they cause a temporary table to be created in TEMPDB, which increases overhead and can cause resource contention issues. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    If you have no choice but to use cursors in your application, try to locate the SQL Server tempdb database on its own physical device for best performance. This is because cursors use the tempdb for temporary storage of cursor data. The faster your disk array, the faster your cursor will be. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    Using cursors can reduce concurrency and lead to unnecessary locking and blocking. To help avoid this, use the READ_ONLY cursor option if applicable, or if you need to perform updates, try to use the OPTIMISTIC cursor option to reduce locking. Try to avoid the SCROLL_LOCKS cursor option, which reduces concurrency. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    When you are done using a cursor, don't just CLOSE it, you must also DEALLOCATE it. Deallocation is required to free up the SQL Server resources used by the cursor. If you only CLOSE the cursor, locks are freed, but SQL Server resources are not. If you don't DEALLOCATE your cursors, the resources used by the cursor will stay allocated, degrading the performance of your server until they are released. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    If it is appropriate for your application, try to load the cursor as soon as possible by moving to the last row of the result set. This releases the share locks created when the cursor was built, freeing up SQL Server resources. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    If you have to use a cursor because your application needs to manually scroll through records and update them, try to avoid client-side cursors, unless the number of rows is small or the data is static. If the number of rows is large, or the data is not static, consider using a server-side keyset cursor instead of a client-side cursor. Performance is usually boosted because of a reduction in network traffic between the client and the server. For optimum performance, you may have to try both types of cursors under realistic loads to determine which is best for your particular environment. [6.5, 7.0, 2000] Updated 6-27-2006

    *****

    When using a server-side cursor, always try to fetch as small a result set as possible. This includes fetching only those rows and columns the client needs immediately. The smaller the cursor, no matter what type of server-side cursor it is, the fewer resources it will use, and performance will benefit. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    If you need to perform a JOIN as part of your cursor, keyset and static cursors are generally faster than dynamic cursors, and should be used when possible. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    If a transaction you have created contains a cursor (try to avoid this if at all possible), ensure that the number of rows being modified by the cursor is small. This is because the modified rows may be locked until the transaction completes or aborts. The greater the number of rows being modified, the greater the locks, and the higher the likelihood of lock contention on the server, hurting performance. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    In earlier versions of SQL Server, Transact-SQL cursors were only global to the connection. But in SQL Server 7 and 2000, there are two options to define the scope of a cursor. LOCAL and GLOBAL keywords in the DECLARE CURSOR statement are used to specify the scope of a cursor. A GLOBAL cursor can be referenced in any stored procedure or batch executed by a connection. LOCAL cursors are more secure as they cannot be referenced outside the procedure or trigger unless they are passed back to the calling procedure or trigger, or by using an output parameter. GLOBAL cursors must be explicitly deallocated or they will be available until the connection is closed. For optimum performance, you should always explicitly deallocate a cursor when you are done using it. LOCAL cursors are implicitly deallocated when the stored procedure, the trigger, or the batch in which they were created terminates. We can use LOCAL cursors for more security and better scope of the cursor in our application, which also helps to reduce resources on the server, and boosting performance. [7.0, 2000] Contributed by Nataraj Prakash.

    *****

    Consider using asynchronous cursors if you expect your result set to be very large. This allows you to continue processing while the cursor is still being populated. While it may not actually speed up your application, it should give the appearance to your end users that something is happening sooner that if they have to wait until the entire cursor is populated. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    If you have to use a cursor, break out of the cursor loop as soon as you can. If you find that a problem has occurred, or processing has ended before the full cursor has been processed, then exit immediately. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    If you are using the same cursor more than once in a batch of work, (or within more than one stored procedure), then define the cursor as a global cursor by using the GLOBAL keyword. By not closing or deallocating the cursor until the whole process is finished, a fair amount of time will be saved, as the cursor and the data contained will already be defined, ready for you to use. [6.5, 7.0, 2000] Updated 9-4-2006

    *****

    Sometimes, it is handy to be able to perform some calculation on one or more columns of a record, and then take the result of that calculation and then add it to similar calculations performed on other related records to find a grand total.

    For example, let's say you want to find the total dollar cost of an invoice. An invoice will generally involve a header record and one or more detail records. Each detail record will represent a line item on the invoice. In order to calculate the total dollar cost of an invoice, based on two or more line items, you would need to multiply the quantity of each item sold times the price of each item. Then, you would need to add the total price of each line item together in order to get the total dollar cost of the entire invoice. To keep this example simple, let's ignore things like discounts, taxes, shipping, etc.

    One way to accomplish this task would be to use a cursor like the one we see below (we are using the Northwind database for this example code):

    DECLARE @LineTotal money      --Declare variables
    DECLARE @InvoiceTotal money
    SET @LineTotal = 0      --Set variables to 0
    SET @InvoiceTotal = 0

    DECLARE Line_Item_Cursor CURSOR FOR      --Declare the cursor

    SELECT UnitPrice*Quantity      --Multiply unit price times quantity ordered
    FROM [order details]
    WHERE ōrderid = 10248      --We are only concerned with invoice 10248

    OPEN Line_Item_Cursor      --Open the cursor
    FETCH NEXT FROM Line_Item_Cursor INTO @LineTotal      --Fetch next record
    WHILE @@FETCH_STATUS = 0

    BEGIN
    SET @InvoiceTotal = @InvoiceTotal + @LineTotal      --Summarize line items
    FETCH NEXT FROM Line_Item_Cursor INTO @LineTotal
    END

    CLOSE Line_Item_Cursor      --Close cursor
    DEALLOCATE Line_Item_Cursor      --Deallocate cursor
    SELECT @InvoiceTotal InvoiceTotal      --Display total value of invoice

    The result for invoice number 10248 is $440.00.

    What the cursor does is to select all of the line items for invoice number 10248, then multiply the quantity ordered times the price to get a line item total, and then it takes each of the line item totals for each record and then adds them all up in order to calculate the total dollar amount for the invoice.

    This all works well, but the code is long and hard to read, and performance is not great because a cursor is used. Ideally, for best performance, we need to find another way to accomplish the same goal as above, but without using a cursor.

    Instead of using a cursor, let's rewrite the above code using set-based Transact-SQL instead of a cursor. Here's what the code looks like:

    DECLARE @InvoiceTotal money
    SELECT @InvoiceTotal = sum(UnitPrice*Quantity)
    FROM [order details]
    WHERE ōrderid = 10248
    SELECT @InvoiceTotal InvoiceTotal

    The result for invoice number 10248 is $440.00.

    Right away, it is obvious that this is a lot less code and that is it more readable. What may not be obvious is that it uses less server resources and performs faster. In our example — with few rows — the time difference is very small, but if many rows are involved, the time difference between the techniques can be substantial.

    The secret here is to use the Transact-SQL "sum" function to summarize the line item totals for you, instead of relying on a cursor. You can use this same technique to help reduce your dependency on using resource-hogging cursors in much of your Transact-SQL code. [6.5, 7.0, 2000] Updated 9-4-2006

数据统计

  • 访问量: 13794
  • 日志数: 23
  • 建立时间: 2007-05-12
  • 更新时间: 2007-06-18

RSS订阅

Open Toolbar