SQL Server 2008清理副本解决方案案例


场景:

某种特定业务下,我们的部分业务数据可能只会保留比较短的时间,用来做临时处理。因为考虑高可用的特性,可能会利用 SQL Server的复制组件复制这种数据到另外的 类似前端,查询中心等数据库服务器,创建一个冗余副本。复制组件标记事务日志,追踪所有的Update,Insert,Delete操作。可是如果不定期清理这种表,那么在一个快速增长的环境下,表变的臃肿不堪,不仅仅浪费磁盘空间,而且给性能带来了负面影响。

如:

A临时数据中心   ---同步-->B 查询/其他业务中心,副本

保证A不可用的时候,B的业务不依赖于A服务器,利用A同步过来的数据B自己直接处理。

常见的解决方案:

一、很简单的,我们可以想到,建立一个清理Job ,根据日期标识,确定删除的范围不出一点错误,比如我每天的晚上12:00以后清理昨天的数据,那么可能会构建这样的查询(朋友们,也许会说使用TRUNCATE ,准时的12:00来TRUNCATE掉,不过很不幸的是,SQL Server 复制是利用日志标记的方式来同步数据,而TRUNCATE语句不会被日志标记,所以TRUNCATE语句在复制表中是被禁用的)

  1. DELETE FROM dbo.t WHERE complete_time >= '2010-05-04' 
  2. AND complete_time < '2010-05-05' 

来删除5月4号的所有数据,可能上亿也可能更多。

优化方案:因为考虑到存在带量的更新 删除 和插入操作,所以首先讲数据库设置成SIMPLE恢复模式,以最小化日志方式。

由于DELETE单个语句是一个事务性的语句,要么全部成功,要么全部失败。那么可想如果删除的是亿级别的数据,那么日志增长,IO负荷非常的大。

所以 可能优化DELETE 操作:

  1. WHILE 1=1  
  2. BEGIN 
  3.     DELETE TOP(5000) FROM dbo.t  
  4.     WHERE complete_time >= '2010-05-04' AND complete_time < '2010-05-05' 
  5.     IF @@ROWCOUNT<5000  
  6.          BREAK;  
  7. END 

将删除操作,缩短成每5000行一批的数据来处理。

缺点:因为存在复制,那么很显然,浪费了极多的带宽,特别在Internet这种环境下,利用VPN的连接,尤其浪费。VPN带宽十分的渺小。再者,在进行亿级的DELETE,时间耗费也是非常恐怖的,而且DELETE过程中,由于存在Range-X 范围排他锁,许多开发人员写的SQL Query没加上WITH(NOLOCK)或者需要事务处理的查询语句,都将被阻塞。

二、删除复制,TRUNCATE表。我们可以直接删除复制的发布和订阅,然后讲两边的表都直接TRUNCATE掉,这种删除方式非常的高效,只不过,要确保其他新增的数据不被误删,也存在一定的风险,构思如下:

A数据库 每天需要清理 前天数据,B服务器通过订阅PUSH获取同步数据。

因此Job 的建立有点复杂,尤其 当12点突然宕机的时候,数据没有及时清理,或者12:00执行TRUNCATE的时候,下一天的00:00:01秒的数据被插入了,等等数据完整性问题,让我采用这个方案回避了。

缺点:估计这个Job不怎么好写,首先是自动删除复制,重新创建复制,创建订阅,虽然利用Generate Script可以到处脚本,但是整个解决方案过于复杂了。

新方案:进入主题了,在SQL Server 中分区表有一个非常 实用的语句ALTER TABLE …SWITCH,这个DDL可以快速的讲同文件组的表的某个分区迅速的转移到另外的表。(很显然,应该是利用数据的位置偏移量的指针的转移到新表的方法来实现的),这种方案转移数据非常迅速,因为不存在大量的IO操作,所以一般都是秒杀级别任意大数据量(如果当前表的索引等比较多,维护操作还是需要点时间的)。但是SQL Server 2005 是不支持在复制中使用SWITCH语句的(这点很郁闷,命名都可以跟踪DDL,为什么这个不能传送到订阅服务器,只要确认发布和订阅同时存在目标表和相同的分区方案不就好了,微软2005考虑不周啊)。

但是前不久我在考虑我们每天亿级别的数据增长,清理数据方案变的十分迫切的时候,我发现SQL Server 2008支持这种操作。下面就开始整个Solution吧:

开始方案前,大家其实根据自己的业务来建立分区方案。我采用的是叠代追加 的方式来扩展以及清理分区的。

当然我也看过类似 使用根据某列键列 建立计算列并且讲计算列PERSISTED 之后分区的。(可以紧靠业务,自己处理,我在这里展示一种,根据ID自增方案分区扩张的方案)。

脚本:

  1. /*  
  2. Title:Rapid Delete In The Replication  
  3. Author:浪客  
  4. Environment:Windows Server 2008 Enterprise + SQL Server 2008 Enterprise  
  5. Description:请在非生产环境下测试  
  6. */  
  7.  
  8. USE [master]  
  9. GO 


--我们创建包含PRIMARY分区在内一共3分区的数据库
 

  1. CREATE DATABASE [db_partition_test]   
  2. ON  PRIMARY   
  3. (   
  4.     NAME = N'db_partition_test',   
  5.     FILENAME = N'C:\db_partition_test.mdf' 
  6. ),   
  7. FILEGROUP [FG1]   
  8. (   
  9.     NAME = N'db_partition_test_fg1_1',   
  10.     FILENAME = N'C:\db_partition_test_fg1_1.ndf' 
  11. ),   
  12.  FILEGROUP [FG2]   
  13. (   
  14.     NAME = N'db_partition_test_fg2_1',   
  15.     FILENAME = N'C:\db_partition_test_fg2_1.ndf' 
  16. )  
  17.  LOG ON   
  18. (   
  19.     NAME = N'db_partition_test_log',   
  20.     FILENAME = N'C:\db_partition_test_log.ldf' 
  21. )  
  22. GO  
  23.  
  24. USE [db_partition_test]  
  25. GO 


--创建分区函数,分区范围为  id<=100 |  100<id<=200  | id>200
 

  1. CREATE PARTITION FUNCTION [id_range_pf_1](int) AS RANGE LEFT FOR VALUES (100, 200)  
  2. GO 


--创建分区方案 ,分区一到PRIMARY,分区二到FG1,分区三到FG2
 
  1. CREATE PARTITION SCHEME [id_range_ps_1] AS PARTITION [id_range_pf_1] TO ([PRIMARY],FG1,FG2);  
  2. GO 

--创建分区表

  1. CREATE TABLE dbo.lovesql  
  2. (  
  3.     ID INT IDENTITY(1,1) NOT FOR REPLICATION NOT NULL PRIMARY KEY,  
  4.     Col Uniqueidentifier DEFAULT(NEWID())  
  5. ) ON id_range_ps_1(ID) 

--插入测试数据 300条

  1. INSERT INTO dbo.lovesql DEFAULT VALUES 
  2. GO 300 

--查看表分区以后的分区行数

  1. SELECT $PARTITION.id_range_pf_1(ID) [PartitionNum],COUNT(1) [PartitionRowCount]  
  2. FROM dbo.lovesql  
  3. GROUP BY $PARTITION.id_range_pf_1(ID)  
  4. ORDER BY [PartitionNum] 


-输入结果,每个分区100条数据,分区正确!
--PartitionNum PartitionRowCount
-------------- -----------------
--1            100
--2            100
--3            100

--现在开始建立复制,首先建立目标数据repl_db_partition_test
 

  1. USE [master];  
  2. GO  
  3.  
  4. CREATE DATABASE [repl_db_partition_test]   
  5. ON  PRIMARY   
  6. (   
  7.     NAME = N'repl_db_partition_test',   
  8.     FILENAME = N'C:\repl_db_partition_test.mdf' 
  9. ),   
  10. FILEGROUP [FG1]   
  11. (   
  12.     NAME = N'repl_db_partition_test_fg1_1',   
  13.     FILENAME = N'C:\repl_db_partition_test_fg1_1.ndf' 
  14. ),   
  15.  FILEGROUP [FG2]   
  16. (   
  17.     NAME = N'repl_db_partition_test_fg2_1',   
  18.     FILENAME = N'C:\repl_db_partition_test_fg2_1.ndf' 
  19. )  
  20.  LOG ON   
  21. (   
  22.     NAME = N'repl_db_partition_test_log',   
  23.     FILENAME = N'C:\repl_db_partition_test_log.ldf' 
  24. )  
  25. GO 

上面已经创建好了,基本的测试环境,那么开始建立复制。

在Object Explorer打开连接的实例中的Replication(复制)文件夹à右键新建发布à在向导中选择Publication Database为db_encryption_testà选择事务复制à在Article中选择lovesql表->在右手边的Article Properties设置表的发布属性à配置如下:

下一步跳过Filter Table Rowsà在Snapshot Agent中,选中第一个复选框à在Agent Security中选择自己设置的帐号吧,我这里选择了Run under the SQL Server Agent services count(记得,如果你的Sql Agent对应的Windows 帐号没有源表以及distribution表的db_owner权限,以及没有快照文件夹的权限,会出错的,具体的可以自己参看MSDN如何Security Settingà给Publications取一个名字,就叫lovesql吧。

接下来建立db_encryption_test 到 repl_db_encryption_test的订阅:

在Object Explore中找到Replication/Local Publications文件夹下,找到你的发布,然后右键新建订阅à一直下一步知道出现Subscribers,然后新添加一个订阅 指向本地的repl_db_encryption_testà在安全中选择Run under the sql server agent service count,然后一直下一步,直到成功。

如果3个代理都成功了(Snapshot代理,Log Read代理,Distribute代理),那么看看repl_db_encryption_test下的表lovesql是否存在,右键属性查看 他的Storage 里面是否已经分区了

脚本执行:

  1.  /*  
  2. Title:Rapid Delete In The Replication  
  3. Author:浪客  
  4. Environment:Windows Server 2008 Enterprise + SQL Server 2008 Enterprise  
  5. Description:请在非生产环境下测试  
  6. */  
  7. USE db_partition_test;  
  8. GO 



--默认发布是不会启用 “分区切换”以及分区DDL的。所以修改发布的属性

  1. EXEC  sp_changepublication @publication=N'lovesql',@property=N'allow_partition_switch',@value=N'true'; 

--启用SWITCH DDL 复制

  1. EXEC  sp_changepublication @publication=N'lovesql',@property=N'replicate_partition_switch',@value=N'true'; 

--确保发布和订阅两边的数据库都存在一个 临时表,而且必须是空数据的临时表 用来快速切换分区使用
--确保分区的表,和切换分区的表使用的是同一个FILEGROUP
--

  1. USE db_partition_test;  
  2. GO  
  3.  
  4. CREATE TABLE dbo.temp_lovesql_primary  
  5. (  
  6.     ID INT PRIMARY KEY,  
  7.     Col Uniqueidentifier  
  8. ) ON [PRIMARY]  
  9. USE repl_db_partition_test;  
  10. GO 

--同样的在订阅库创建临时表

  1. CREATE TABLE dbo.temp_lovesql_primary  
  2. (  
  3.     ID INT PRIMARY KEY,  
  4.     Col Uniqueidentifier  
  5. ) ON [PRIMARY] 

-切换分区1到临时比哦啊

  1. USE db_partition_test;  
  2. GO  
  3. ALTER TABLE dbo.lovesql SWITCH PARTITION 1 TO dbo.temp_lovesql_primary 

--查看表分区以后的分区行数

  1. SELECT $PARTITION.id_range_pf_1(ID) [PartitionNum],COUNT(1) [PartitionRowCount]  
  2. FROM dbo.lovesql  
  3. GROUP BY $PARTITION.id_range_pf_1(ID)  
  4. ORDER BY [PartitionNum]  
  5.  
  6. --PartitionNum PartitionRowCount  
  7. -------------- -----------------  
  8. --2            100  
  9. --3            100  
  10.  
  11. USE repl_db_partition_test;  
  12. GO 

--查看repl_db_partition_test 中 表分区以后的分区行数 

  1. SELECT $PARTITION.id_range_pf_1(ID) [PartitionNum],COUNT(1) [PartitionRowCount]  
  2. FROM dbo.lovesql  
  3. GROUP BY $PARTITION.id_range_pf_1(ID)  
  4. ORDER BY [PartitionNum] 

--PartitionNum PartitionRowCount
-------------- -----------------
--2            100
--3            100

--恭喜,测试成功,接下来,对两边同时TRUNCATE TABLE 就好了

结束语:

希望大家能够一次性测试通过。GL,GG。这里提供了一种分区的方案来删除数据,其实非PRIMARY的文件组,也是使用的,只要在建立SCHEME的时候ALL TO PRIMARY就成了


« 
» 
快速导航

Copyright © 2016 phpStudy | 豫ICP备2021030365号-3