Reorg rebuild 重建表和表上的索引

 回收索引页上分配而未用的空间,删除前推行,或者根据所建聚簇索引(如果存在)重新将表中所有数据行写入新的页,使索引页的物理存放尽可能的连续,提高其访问效率。  
   
    例如,长期的表数据更新操作,使得包含索引数据的索引页的物理存放空间出现碎片,如同表的数据页空间碎片整理一样,可以通过该命令重建表上的索引,整理碎片,提高空间的存放和访问效率。  
   
  基本语法:  
   
  reorg   rebuild   table_name   [index_name]  
   
  例一,重建表tb1及其之上的所有索引:  
   
  1>   reorg   rebuild   tb1  
  2>   go  
  Beginning   REORG   REBUILD   of   'tb1'.  
  There   are   approximately   1   pages   to   be   processed.  
  Non-clustered   index   (index   id   =   2)   is   being   rebuilt.  
  REORG   REBUILD   of   'tb1'   completed.  
   
  例二,重建表tb1上的索引tb1_ind:  
   
  1>   reorg   rebuild   tb1   tb1_ind  
  2>   go  
  There   are   approximately   1   pages   to   be   processed.  
   
  注意:  
   
  重建索引的表的加锁模式只能是数据页锁(datapages)或数据行锁(datarows),不能是全部页锁(allpages),否则报错:    
  1>   reorg   rebuild   tb1  
  2>   go  
  Msg   11903,   Level   16,   State   3:  
  Line   1:  
  You   cannot   run   REORG   on   a   table   which   uses   allpages   locking.    
  重建表上的所有索引,包括可能有的聚簇索引和所有非聚簇索引,或指定某一个具体名字的索引。    
  重建索引之前,必须将表对应数据库的选项设置为“select   into/bulkcopy/pllsort”。    
  重建索引需要额外的磁盘空间,大小等于表和索引空间之和,可以通过系统存储过程   sp_spaceused   table_name[index_name]   查看实际占用空间。    
  重建索引以后,在转储数据库事务日志之前,应该转储数据库。    
  不能在事务内运行reorg命令。    
  不能在文本索引中运行reorg命令,因为在sysindexes中的名字与文本链关联。    
  Reorg   build的应用前提:  
   
  查询并没有象通常一样选择使用大I/O池,而且optdiag显示出数据页、数据行或索引页的聚簇比很低。    
 使用sp_chgattribute改变了exp_row_size、reserverpagegap或fillfactor空间管理设置中的一项或多项,并想让所有的改变不仅应用于未来数据,还要应用于已有的行和页。

 

Sybase数据库的碎片整理    
  对于像Sybase这样的大型DBMS系统而言,作为OLTP(联机事务处理)应用的基石,它需要能每天24小时,每年365天不间断运行。由于其应用程 序每天对数据库进行大量的插入、更新、删除等操作,在数据库的物理存储介质上产生了大量存储碎片,从而影响了存储的效率以及数据库应用运行的速度。是否可 以像Windows操作系统的“碎片整理”程序一样,整理这些碎片,从而优化数据库存储,提高数据库的运行速度呢?答案是肯定的。本文将介绍Sybase 数据库的碎片类型以及碎片整理方法。    
  碎片类型    
  由于Sybase是通过OAM页、分配单元和扩展页来管理数据的,所以对OLTP应用的Database   Server会十分频繁地进行数据删除、插入和更新等操作,时间一长就会出现以下几种情况:    
  1.   页碎片    
  即本来可以存放在一个页上的数据却分散地存储在多个页上。如果这些页存储在不同的扩展单元上,Database   Server就要访问多个扩展单元,因此降低了系统性能。    
  2.   扩展单元碎片    
  在堆表中,当删除数据链中间的记录行时,会出现空页。随着空页的累积,扩展单元的利用率也会下降,从而出现扩展单元碎片。带cluster   index的table也有可能出现扩展单元碎片。    
  当有扩展单元碎片存在,会出现以下问题:    
  ●   对表进行处理时,常常出现死锁;    
  ●   利用较大的I/O操作或增加I/O缓冲区的大小也无法改变较慢的I/O速度;    
  ●   行操作的争用。    
  3.   扩展单元遍历    
  带有cluster   index的table会由于插入记录而导致页分裂,但当删除记录后,页会获得释放,从而形成跨几个扩展单元和分配单元的数据,而要访问该数据就必须遍历 几个扩展单元和分配单元。这将导致访问/查询记录的时间大大延长,开始时数据库的性能虽然较高,但使用一段时间后性能就会下降等问题。    
  实际上,数据在存储空间上排列得越紧密有序,Database   Server访问的速度就越快,消除碎片有助于提高系统的性能和更有效地利用数据存储空间。    
  碎片优化方法    
  处理碎片有多种方法,如重新定义table的填充因子,根据table的定义删除并重新创建索引、重建表等。    
  本文给出的方法是通过BCP实用程序将用户数据库的数据以文本形式导出,然后将用户数据库彻底清空、截断,再将文本数据导入到数据库,从而达到消除碎片的目的,具有通用性。    
  下面以Sun   Solaris   7操作系统下的Sybase   Adaptive   Server   Enterprise   11.5为例,说明整理数据库数据的具体方法。    
  1.   备份数据库    
  为防止在数据库碎片整理过程中出现不可预见的问题,有必要先备份数据库。    
  2.   创建bcp   out脚本并导出数据    
  ●   创建包含下列SQL语句的文件:    
  cre_bcp_out.sql    
  select   “bcp”   +   name   +   “out   ./”   +   name   +   “_out.txt   -Udboname   -Pdbopwd   -Ssys_name   -c”    
  from   sysobjects   where   type   =   ‘U’    
  order   by   name    
  go    
  ●   isql   -Udboname   -Pdbopwd   -Ssystemname   <   cre_bcp_out.   sql   >   b_out    
  ●   编辑输出文件,去掉文件第一行和最后两行无关的字符:vi   b_out    
  ●   执行脚本,将数据库的数据导出到文本文件:sh   b_out    
  3.   创建truncate   table脚本并截断数据库    
  ●   创建包含下列SQL语句的文件:    
  cre_trunc_out.sql    
  select   “truncate   table”   +   name   from   sysobjects   where   type   =   ‘U’    
  order   by   name    
  go    
  ●   isql   -Udboname   -Pdbopwd   -Ssystemname   <   cre_   trunc_out.   sql   >   trunc_out.   sql    
  ●   编辑输出文件,去掉文件第一行和最后两行无关的字符,并在最后一行加入   go构成完整的SQL语句:vi   trunc_out    
  ●   执行以下语句,清空数据库的数据:    
  isql   -Udboname   -Pdbopwd   <   trunc_out.   sql    
  4.   创建bcp   in脚本并导入数据    
  ●   创建包含下列SQL语句的文件:    
  cre_bcp_in.   sql    
  select   “bcp”   +   name   +   “in   ./”   +   name   +   “_out.txt   -Udboname   -Pdbopwd   -Ssys_name   -c”from   sysobjects   where   type   =   ‘U’    
  order   by   name    
  go    
  ●   isql   -Udboname   -Pdbopwd   -Ssystemname   <   cre_   bcp_in.   sql   >   b_in    
  ●   编辑输出文件,去掉文件第一行和最后两行无关的字符:vi   b_in    
  ●   从文本中导入数据:sh   b_in    
  5.   更新数据库状态    
  Sybase不自动维护索引的统计信息,当用truncate   table截断数据库时,索引并没有改变,所以必须用update   statistics来确保索引的统计信息对应当前表数据的统计。    
  ●   创建包含下列SQL语句的文件:    
  cre_upd_st.   sql    
  select   “update   statistics”   +   name   from   sysobjects   where   type   =   “U”   order   by   name    
  go    
  ●   isql   -Udboname   -Pdbopasswd   -Ssystemname   <   cre_upd_st.   sql   >   upd_st.   sql    
  ●   编辑输出文件,去掉文件第一行和最后两行无关的字符,在最后一行加入   go构成完整的SQL语句:    
  vi   upd_st.   sql    
  ●   更新数据库状态:    
  isql   -Udboname   -Pdbopasswd   -Ssystemname   <   upd_st.   sql    
 至此,基本上完成了数据库用户表的碎片整理工作。    
  小   结    
  在整理过程中,有以下两点需要注意:    
  1.   Tempdb的大小    
  当Sybase执行bcp   in脚本时,会占用导入数据2倍的tempdb空间,因此在执行前要仔细估计最大的table的大小,保证有足够的tempdb空间。当空间不够时,要考 虑用分割table或删除陈旧数据的方法缩小table的大小,或者考虑增加tempdb的大小。    
  2.   数据库配置选项的设置    
  当数据库执行bcp   in脚本时会产生大量的log,为保证bcp   in进程不致因为log溢出而中断,应该设置database的选项“truncate   log   on   chkpt”为“true”。    
  虽然Sybase数据库是自优化的,但只要数据库是动态的,数据库碎片现象就会存在。在OLTP应用的场合,随着数据的不断增大,系统变得越来越缓慢,并且经常出现死锁时,应该检查数据库的碎片,并且采用以上方法进行优化。    
  实际上,应该定期做数据库的碎片整理,保证数据库的物理存储经常处于

你可能感兴趣的:(sql,SQL Server,脚本,Sybase,Go)