实现小数据量和海量数据的通用分页显示存储过程

 
建立一个 Web 应用,分页浏览功能必不可少。这个问题是数据库处理中十分常见的问题。经典的数据分页方法是:ADO 纪录集分页法,也就是利用ADO自带的分页功能(利用游标)来实现分页。但这种分页方法仅适用于较小数据量的情形,因为游标本身有缺点:游标是存放在内存中,很费内存。游标一建立,就将相关的记录锁住,直到取消游标。游标提供了对特定集合中逐行扫描的手段,一般使用游标来逐行遍历数据,根据取出数据条件的不同进行不同的操作。而对于多表和大表中定义的游标(大的数据集合)循环很容易使程序进入一个漫长的等待甚至死机。
  更重要的是,对于非常大的数据模型而言,分页检索时,如果按照传统的每次都加载整个数据源的方法是非常浪费资源的。现在流行的分页方法一般是检索页面大小的块区的数据,而非检索所有的数据,然后单步执行当前行。
  最早较好地实现这种根据页面大小和页码来提取数据的方法大概就是“俄罗斯存储过程”。这个存储过程用了游标,由于游标的局限性,所以这个方法并没有得到大家的普遍认可。
  后来,网上有人改造了此存储过程,下面的存储过程就是结合我们的办公自动化实例写的分页存储过程:

CREATE procedure pagination1
(@pagesize int, --页面大小,如每页存储20条记录
@pageindex int --当前页码
)
as

set nocount on

begin
declare @indextable table(id int identity(1,1),nid int) --定义表变量
declare @PageLowerBound int --定义此页的底码
declare @PageUpperBound int --定义此页的顶码
set @PageLowerBound=(@pageindex-1)*@pagesize
set @PageUpperBound=@PageLowerBound+@pagesize
set rowcount @PageUpperBound
insert into @indextable(nid) select gid from TGongwen
      where fariqi >dateadd(day,-365,getdate()) order by fariqi desc
select O.gid,O.mid,O.title,O.fadanwei,O.fariqi from TGongwen O,@indextable t
           where O.gid=t.nid and t.id>@PageLowerBound
                        and t.id<=@PageUpperBound order by t.id
end

set nocount off

  以上存储过程运用了SQL SERVER的最新技术――表变量。应该说这个存储过程也是一个非常优秀的分页存储过程。当然,在这个过程中,您也可以把其中的表变量写成临时表:CREATE TABLE #Temp。但很明显,在SQL SERVER中,用临时表是没有用表变量快的。所以笔者刚开始使用这个存储过程时,感觉非常的不错,速度也比原来的ADO的好。但后来,我又发现了比此方法更好的方法。
  笔者曾在网上看到了一篇小短文《从数据表中取出第n条到第m条的记录的方法》,全文如下:

从publish 表中取出第 n 条到第 m 条的记录:
SELECT TOP m-n+1 *
FROM publish
WHERE (id NOT IN
    (SELECT TOP n-1 id
     FROM publish))

id 为publish 表的关键字

  我当时看到这篇文章的时候,真的是精神为之一振,觉得思路非常得好。等到后来,我在作办公自动化系统(ASP.NET+ C#+SQL SERVER)的时候,忽然想起了这篇文章,我想如果把这个语句改造一下,这就可能是一个非常好的分页存储过程。于是我就满网上找这篇文章,没想到,文章还没找到,却找到了一篇根据此语句写的一个分页存储过程,这个存储过程也是目前较为流行的一种分页存储过程,我很后悔没有争先把这段文字改造成存储过程:

CREATE PROCEDURE pagination2
(
@SQL nVARCHAR(4000), --不带排序语句的SQL语句
@Page int, --页码
@RecsPerPage int, --每页容纳的记录数
@ID VARCHAR(255), --需要排序的不重复的ID号
@Sort VARCHAR(255) --排序字段及规则
)
AS

DECLARE @Str nVARCHAR(4000)

SET @Str=''SELECT TOP ''+CAST(@RecsPerPage AS VARCHAR(20))+'' * FROM
(''+@SQL+'') T WHERE T.''+@ID+''NOT IN (SELECT TOP ''+CAST((@RecsPerPage*(@Page-1))
AS VARCHAR(20))+'' ''+@ID+'' FROM (''+@SQL+'') T9 ORDER BY ''+@Sort+'') ORDER BY ''+@Sort

PRINT @Str

EXEC sp_ExecuteSql @Str
GO

其实,以上语句可以简化为:

SELECT TOP 页大小 *
FROM Table1 WHERE (ID NOT IN (SELECT TOP 页大小*页数 id FROM 表 ORDER BY id))
ORDER BY ID

但这个存储过程有一个致命的缺点,就是它含有NOT IN字样。虽然我可以把它改造为:

SELECT TOP 页大小 *
FROM Table1 WHERE not exists
(select * from (select top (页大小*页数) * from table1 order by id) b where b.id=a.id )
order by id

  即,用not exists来代替not in,但我们前面已经谈过了,二者的执行效率实际上是没有区别的。既便如此,用TOP 结合NOT IN的这个方法还是比用游标要来得快一些。
  虽然用not exists并不能挽救上个存储过程的效率,但使用SQL SERVER中的TOP关键字却是一个非常明智的选择。因为分页优化的最终目的就是避免产生过大的记录集,而我们在前面也已经提到了TOP的优势,通过TOP 即可实现对数据量的控制。
  在分页算法中,影响我们查询速度的关键因素有两点:TOP和NOT IN。TOP可以提高我们的查询速度,而NOT IN会减慢我们的查询速度,所以要提高我们整个分页算法的速度,就要彻底改造NOT IN,同其他方法来替代它。
  我们知道,几乎任何字段,我们都可以通过max(字段)或min(字段)来提取某个字段中的最大或最小值,所以如果这个字段不重复,那么就可以利用这些不重复的字段的max或min作为分水岭,使其成为分页算法中分开每页的参照物。在这里,我们可以用操作符“>”或“<”号来完成这个使命,使查询语句符合SARG形式。如:

Select top 10 * from table1 where id>200

于是就有了如下分页方案:

select top 页大小 *
from table1
where id>
(select max (id) from
(select top ((页码-1)*页大小) id from table1 order by id) as T
)
order by id

  在选择即不重复值,又容易分辨大小的列时,我们通常会选择主键。下表列出了笔者用有着1000万数据的办公自动化系统中的表,在以GID(GID是主键,但并不是聚集索引。)为排序列、提取gid,fariqi,title字段,分别以第1、10、100、500、1000、1万、10万、25万、50万页为例,测试以上三种分页方案的执行速度:(单位:毫秒)
页码  方案1  方案2  方案3  
1 60 30 76 
10 46 16 63 
100 1076 720 130 
500 540 12943 83 
1000 17110 470 250 
10000 24796 4500 140 
100000 38326 42283 1553 
250000 28140 128720 2330 
500000 121686 127846 7168 

  从上表中,我们可以看出,三种存储过程在执行100页以下的分页命令时,都是可以信任的,速度都很好。但第一种方案在执行分页1000页以上后,速度就降了下来。第二种方案大约是在执行分页1万页以上后速度开始降了下来。而第三种方案却始终没有大的降势,后劲仍然很足。
  在确定了第三种分页方案后,我们可以据此写一个存储过程。大家知道SQL SERVER的存储过程是事先编译好的SQL语句,它的执行效率要比通过WEB页面传来的SQL语句的执行效率要高。下面的存储过程不仅含有分页方案,还会根据页面传来的参数来确定是否进行数据总数统计。

--获取指定页的数据:

CREATE PROCEDURE pagination3
@tblName varchar(255), -- 表名
@strGetFields varchar(1000) = ''*'', -- 需要返回的列
@fldName varchar(255)='''', -- 排序的字段名
@PageSize int = 10, -- 页尺寸
@PageIndex int = 1, -- 页码
@doCount bit = 0, -- 返回记录总数, 非 0 值则返回
@OrderType bit = 0, -- 设置排序类型, 非 0 值则降序
@strWhere varchar(1500) = '''' -- 查询条件 (注意: 不要加 where)
AS

declare @strSQL varchar(5000) -- 主语句
declare @strTmp varchar(110) -- 临时变量
declare @strOrder varchar(400) -- 排序类型

if @doCount != 0
begin
if @strWhere !=''''
set @strSQL = "select count(*) as Total from [" + @tblName + "] where "+@strWhere
else
set @strSQL = "select count(*) as Total from [" + @tblName + "]"
end

--以上代码的意思是如果@doCount传递过来的不是0,就执行总数统计。以下的所有代码都是@doCount为0的情况:

else
begin
if @OrderType != 0
begin
set @strTmp = "<(select min"
set @strOrder = " order by [" + @fldName +"] desc"

--如果@OrderType不是0,就执行降序,这句很重要!

end
else
begin
set @strTmp = ">(select max"
set @strOrder = " order by [" + @fldName +"] asc"
end

if @PageIndex = 1
begin
if @strWhere != ''''

set @strSQL = "select top " + str(@PageSize) +" "+@strGetFields+ "
        from [" + @tblName + "] where " + @strWhere + " " + @strOrder
else

set @strSQL = "select top " + str(@PageSize) +" "+@strGetFields+ "
        from ["+ @tblName + "] "+ @strOrder

--如果是第一页就执行以上代码,这样会加快执行速度

end
else
begin

--以下代码赋予了@strSQL以真正执行的SQL代码
 

set @strSQL = "select top " + str(@PageSize) +" "+@strGetFields+ " from ["
+ @tblName + "] where [" + @fldName + "]" + @strTmp + "(["+ @fldName + "])
      from (select top " + str((@PageIndex-1)*@PageSize) + " ["+ @fldName + "]
      from [" + @tblName + "]" + @strOrder + ") as tblTmp)"+ @strOrder

if @strWhere != ''''
set @strSQL = "select top " + str(@PageSize) +" "+@strGetFields+ " from ["
+ @tblName + "] where [" + @fldName + "]" + @strTmp + "(["
+ @fldName + "]) from (select top " + str((@PageIndex-1)*@PageSize) + " ["
+ @fldName + "] from [" + @tblName + "] where " + @strWhere + " "
+ @strOrder + ") as tblTmp) and " + @strWhere + " " + @strOrder
end

end

exec (@strSQL)

GO
  上面的这个存储过程是一个通用的存储过程,其注释已写在其中了。 在大数据量的情况下,特别是在查询最后几页的时候,查询时间一般不会超过9秒;而用其他存储过程,在实践中就会导致超时,所以这个存储过程非常适用于大容量数据库的查询。 笔者希望能够通过对以上存储过程的解析,能给大家带来一定的启示,并给工作带来一定的效率提升,同时希望同行提出更优秀的实时数据分页算法。


===================================
以上是网友总结的,自己再补充2种:
1种,不用max或min,而是用top1来获得分界行的值,根据这个值再利用大小于关系和top获得,
下面bookUptime表降续排列,获得21到30的行
select top10 * from bookUptime
where utime < (
select top 1 utime from
(select top 20 * from bookuptime ORDER BY utime DESC) as tt
ORDER BY tt.utime)

2种,充分利用top的优势,结合order by颠倒几次顺序获得目标
获得21到30的行
select * from(
select top 10 * from
(select top 30 * from bookuptime ORDER BY utime DESC) as tt
ORDER BY tt.utime) as t2
ORDER BY utime DESC

比较后发现,第一种方法教前面作者的第3种方法差,而第2种方法却速度惊人(还没有用巨量数据测试),
比前面的方法速度快了1倍,分析器显示,这种方法少用了1次全表扫描,而排好顺序的表颠倒顺序速度是很快的,
因此总体快了很多.
但我的第2种方法在最后一页不为10行时有缺陷,还是会显示出后10行,同时这个缺点有产生了一个优点,
无论用户输入的页码再大,都不会出现空行返回的现象,
如果我们需要每次都返回总行数,那么第2种方法的缺陷就可以解决了.因为能够判断出是否是需要
显示的最后一页,而作出处理.

=========================================

进一步深入讨论,关于索引和分页显示的关系

  特别注意,在查询的第一步,不应该用select *,应该只选择排序需要的列,并且这些列应该在索引之中,

例如获取表a中安照指定time排序,从2000行开始的连续10行的语句如下:

select top 10

from(

  select top 2010 *

    from a

    ORDER BY  [time] ) t

  ORDER BY  [time] desc

 (1)此时,如果[time]是聚族索引,那么一切正常,速度很快,但是如果time不是聚族索引,那么就是灾难,数据库会从硬盘里经过大量的io操作获得2010行数据,再在其中获取10行.如果我们要获取10万行后的行,那么要去从硬盘上读取10万行的实际数据,而我们仅仅是想要10行而已.

(2)此时如果time不是聚族索引,但是普通索引,因为我们用了*号选择了所有列,而其中有些列并不在索引中,于是数据库会利用索引找出索引中的2010行,然后根据这索引中的2010行,按照书签(bookRemark)的方式,从硬盘物理表里经过大量的io操作获得2010行数据,同样极大影响性能.

那么应该怎么做了,首先保证time在索引中(很奇怪,实际我测试,time在任意索引中都可以,不管是否是聚族索引),其次我们不应该select*, 而应该只选能够确定一行的唯一性的列就行了,例如uid这个列, 这里还要保证uid也必须在索引中,不然还是会去硬盘读取物理表的行,因为索引中没有这个字段,数据库光靠索引的内容没法知道uid的信息.

最终应该这样写:

select top 10

from a, (

  select top 2010 uid

    from a

    ORDER BY  [time] ) t

where a.uid = t.uid

  ORDER BY  [time] desc

这样后我们就会发现查询时间节省了非常多,有时甚至节省几倍时间.

分析数据库执行语句的步骤是这样:

  在索引中找出2010行索引,排序后获得顶部10行索引数据,最后根据索引访问硬盘物理表,读取出10行数据,可以看到实际读取物理表只有10行,当然大量节省了时间.
----------------------
再来讨论,当查询的分页显示结果中是要排除某些uid的行,例如我们要获得a表中从2000行开始的连续10行,且这10行uid 不在b表中,这时我们会这样写:
select top 10

from a, (

  select top 2010 uid

    from a, b

    where a.uid <> b.uid

    ORDER BY  [time] ) t

where a.uid = t.uid

  ORDER BY  [time] desc
分析sql的执行过程我们发现,当数据库获取2010行索引数据后,会根据每行的uid去查询是否在b表中,于是查询b表查了2010次,这看来真是浪费啊,但当b表中有很多行时,我们也确实只能这样处理,不过,如果b表中的行数不是很多,例如就只有10行,我们就有办法继续优化了,那就是采用动态语句法!
我们的思路就是让第一步的where语句变为下面:
 select top 2010 uid

    from a

    where a.uid <> 1 and a.uid <> 2 and a.uid <> 3 and a.uid <> 4 and....

    ORDER BY  [time]
就是把b表中的uid先读取出来,放在字符串中,查询a表时直接放在where中作为条件.这时我们实际上只查询了b表一次,因此我们会看到查询速度再次大幅提升,方法如下:
declare @sqlStr
set @sqlStr= ''
select @sqlStr= 'and uid <> ' + str(uid) + @sqlStr
set @sqlStr = '
 select top 2010 uid

    from a

    where ' + @sqlStr  + '

    ORDER BY  [time] '

exec(@sqlstr)
具体的语句格式这里可能有些问题,要注意处理当b表为空的情况,请自己调整语句,思路已经说明就行.
欢迎转载,  nutian我花费1天时间获得的心得.

你可能感兴趣的:(数据库)