粗糙集分类

粗糙集理论
粗糙集理论(Rough Set theory)是一个种处理数据分类的数据挖掘方法。当数据属于定性数据或不确定性数据,无法使用一般的统计方法时,粗糙集理论可以在信息不完整和信息不一致下,用来规约数据集合,发掘隐藏的数据阳性和数据相关性,以产生有用的分类规则。
粗糙集理论现在主要应用在①临床医疗诊断;②电力系统和其他工业过程故障诊断;③预测与控制;④模式识别与分类;⑤机器学习和数据挖掘; ⑥图像处理等方面。

粗糙集理论基础:
信息系统:是四元组(U,Q,V,f)其中U是对象集合,Q是属性集合,V是属性的值域,f是一种映射,反应对象集合之间值。
不可分辨关系IND(P)/等价关系:分类过程中,相差不大的个体被归于同一类。
下近似:集合X关于I的下近似(Lower approximation)是由那些根据现有知识判断肯定属于X的对象所组成的最大集合。
上近似:集合X关于I的上近似(Upper approximation)是由所有与X相交非空的等效类I(x)的并集,是那些可能属于X的对象组成的最小集合。
精确集合:上下近似相等。
粗糙集:上下近似不等。
正区域:下近似
负区域:上近似以外的区域。
边界:上下近似的差。
粗糙度:下近似集合的基数或势(元素个数)/上近似的基数或势(元素个数)。

粗糙集理论产生的分类规则:
可以从训练数据集中,应用粗糙集理论与支持度门槛产生候选规则,并利用测试数据集计算候选规则的置信度和增益,以验证提取之候选规则作为最终的分类规则。
在建立候选规则之前,以随机的方式将决策表分成两组:a%的数据视为训练数据组;1-a%的数据视为测试数据组。产生分类规则的步骤如下:
定义候选规则所需之支持度门槛值θ。
建立决策表与数据集。
若遇到属性为连续型属性,则需要经过离散化,将连续型数据分为区间,否则直接进入步骤(4)
取得训练组数据集的简化(reducts)
根据领域专业知识判定于步骤(4)所产生的reducts是否合适。
根据筛选后所剩下的reducts组而找到规则
输入所有训练数据集,并计算所有产生规则的支持度。若该规则支持度大于门槛值θ,则应将该规则放入候选集合中;若该规则的支持度小于门槛值θ,则移除该规则。
直到所有规则均完成支持度门槛值的校验后,即可停止产生规则,并与领域专家讨论,提出不符合实务的候选规则。
接着使用测验数据组验证中训练数据所取得的候选规则,并以置信度与增益作为应选候选规则的门槛值。步骤如下:
设定置信度与增益门槛值,分别为θ1和θ2.
输入所有测试数据集,以计算各候选规则的置信度与增益。
若置信度大于门槛值θ1,且增益大于门槛值,则此候选规则将通过测试,并作为最终分类规则;若改规则的置信度小于门槛值θ2,则移除该候选规则。
直到所有候选规则均完成置信度与增益的检验后,即完成产生分类规则的步骤,再与领域专家确认规则意义。

以下内容为复制的百度百科内容:以方便加深对粗糙集理论的理解
粗糙集合论回答了上面的这些问题。要想了解粗糙集合论的思想,我们先要了解一下什么叫做知识?假设有8个积木构成了一个集合A,我们记:A={x1,x2,x3,x4,x5,x6,x7,x8},每个积木块都有颜色属性,按照颜色的不同,我们能够把这堆积木分成R1={红,黄,蓝}三个大类,那么所有红颜色的积木构成集合X1={x1,x2,x6},黄颜色的积木构成集合X2={x3,x4},蓝颜色的积木是:X3={x5,x7,x8}。按照颜色这个属性我们就把积木集合A进行了一个划分(所谓A的划分就是指对于A中的任意一个元素必然有且仅属于一个分类),那么我们就说颜色属性就是一种知识。在这个例子中我们不难看到,一种对集合A的划分就对应着关于A中元素的一个知识,假如还有其他的属性,比如还有形状R2={三角,方块,圆形},大小R3={大,中,小},这样加上R1属性对A构成的划分分别为:
A/R1={X1,X2,X3}={{x1,x2,x6},{x3,x4},{x5,x7,x8}} (颜色分类)
A/R2={Y1,Y2,Y3}={{x1,x2},{x5,x8},{x3,x4,x6,x7}} (形状分类)
A/R3={Z1,Z2,Z3}={{x1,x2,x5},{x6,x8},{x3,x4,x7}} (大小分类)
上面这些所有的分类合在一起就形成了一个基本的知识库。那么这个基本知识库能表示什么概念呢?除了红的{x1,x2,x6}、大的{x1,x2,x5}、三角形的{x1,x2}这样的概念以外还可以表达例如大的且是三角形的{x1,x2,x5}∩{x1,x2}={x1,x2},大三角{x1,x2,x5}∩{x1,x2}={x1,x2},蓝色的小的圆形({x5,x7,x8}∩{x3,x4,x7}∩{x3,x4,x6,x7}={x7},蓝色的或者中的积木{x5,x7,x8}∪{x6,x8}={x5,x6,x7,x8}。而类似这样的概念可以通过求交运算得到,比如X1与Y1的交就表示红色的三角。所有的这些能够用交、并表示的概念以及加上上面的三个基本知识(A/R1,A/R2.A/R3)一起就构成了一个知识系统记为R=R1∩R2∩R3,它所决定的所有知识是A/R={{x1,x2},{x3,x4},{x5},{x6},{x7},{x8}}以及A/R中集合的并。
下面考虑近似这个概念。假设给定了一个A上的子集合X={x2,x5,x7},那么用我们的知识库中的知识应该怎样描述它呢?红色的三角?黄色的大圆?都不是,无论是单属性知识还是由几个知识进行交、并运算合成的知识,都不能得到这个新的集合X,于是 我们只好用我们已有的知识去近似它。也就是在所有的现有知识里面找出跟他最像的两个一个作为下近似,一个作为上近似。于是我们选择了“蓝色的大方块或者蓝色的小圆形”这个概念:{x5,x7}作为X的下近似。选择“三角形或者蓝色的”{x1,x2,x5,x7}作为它的上近似,值得注意的是,下近似集是在那些所有的包含于X的知识库中的集合中求交得到的,而上近似则是将那些与X有交集的知识库中的集合求并得到的。一般的,我们可以用下面的图来表示上、下近似的概念。
这其中曲线围的区域是X的区域,蓝色的内部方框是内部参考消息,是下近似 ,绿的是边界加上蓝色的部分就是上近似集。其中各个小方块可以被看成是论域上的知识系统所构成的所有划分。
整个粗集理论的核心就是上面说的有关知识、集合的划分、近似集合等等概念。下面我们讨论一下关于粗糙集在数据库中数据挖掘的应用问题。考虑一个数据库中的二维表如下:
元素 颜色 形状 大小 稳定性
x1 红 三角 大 稳定
x2 红 三角 大 稳定
x3 黄 圆 小 不稳定
x4 黄 圆 小 不稳定
x5 蓝 方块 大 稳定
x6 红 圆 中 不稳定
x7 蓝 圆 小 不稳定
x8 蓝 方块 中 不稳定
可以看出,这个表就是上面的那个例子的二维表格体现,而最后一列是我们的决策属性,也就是说评价什么样的积木稳定。这个表中的每一行表示了类似这样的信息:红色的大三角积木稳定,**的小圆形不稳定等等。我们可以把所有的记录看成是论域A={x1,x2,x3,x4,x5,x6,x7,x8},任意一个列表示一个属性构成了对论域的元素上的一个划分,在划分的每一个类中都具有相同的属性。而属性可以分成两大类,一类叫做条件属性:颜色、形状、大小都是,另一类叫做决策属性:最后一列的是否稳定?下面我们考虑,对于决策属性来说是否所有的条件属性都是有用的呢?考虑所有决策属性是“稳定”的集合{x1,x2,x5},它在知识系统A/R中的上下近似都是{x1,x2,x5}本身,“不稳定”的集合{x3,x4,x6,x7,x8},在知识系统A/R中的上下近似也都是{x3,x4,x6,x7,x8}它本身。说明该知识库能够对这个概念进行很好的描述。下面考虑是否所有的基本知识:颜色、形状、大小都是必要的?如果我们把这个集合在知识系统中去掉颜色这个基本知识,那么知识系统变成A/(R-R1)={{x1,x2},{x3,x4,x7},,,}以及这些子集的并集。如果用这个新的知识系统表达“稳定”概念得到上下近似仍旧都是:{x1,x2,x5},“不稳定”概念的上下近似也还是{x3,x4,x6,x7,x8},由此看出去掉颜色属性我们表达稳定性的知识不会有变化,所以说颜色属性是多余的可以删除。如果再考虑是否能去掉大小属性呢?这个时候知识系统就变为:
A/(R-R1-R3)=A/R2={{x1,x2},{x5,x8},{x3,x4,x6,x7}}。同样考虑“稳定”在知识系统A/R2中的上下近似分别为:{x1,x2,x5,x8}和{x1,x2},已经和原来知识系统中的上下近似不一样了,同样考虑“不稳定”的近似表示也变化了,所以删除属性“大小”是对知识表示有影响的故而不能去掉。同样的讨论对于“形状”属性,“形状”属性是不能去掉的。A/(R-R2)={{x1,x2},x6,{x3,x4},x5,x7,x8},通过求并可以得知“稳定”的下近似和上近似都是{x1,x2,x5},“不稳定”的上下近似都是{x3,x4,x6,x7,x8}。最后我们得到化简后的知识库R2,R3,从而能得到下面的决策规则:大三角->稳定,大方块->稳定,小圆->不稳定,中圆->不稳定,中方块->不稳定,利用粗集的理论还可以对这些规则进一步化简得到:大->稳定,圆->不稳定,中方块->不稳定。这就是上面这个数据表所包含的真正有用的知识,而这些知识都是从数据库有粗糙集方法自动学习得到的。因此,粗糙集是数据库中数据挖掘的有效方法。

参考资料:
【1】简祯富,许嘉裕 大数据分析与数据挖掘
【2】Jiawei Han, Micheline Kamber, Jian Pei 数据挖掘概念与技术
其他资料:
QFge-GAzc5acRFvGPnn1aTEYuvMtiMCeKVVTWwn2mlHnVAm-b0a7XCB0Ng-hqm64XyPTqklS9g36Z”>http://baike.baidu.com/link?url=Z3cSiqNxf0CTiToBZQbghEQcPd4xhbpxUdYzPpRCAf5yUygoPKHzOGuXvw6Z6FBg-S0ovc-QFge-GAzc5acRFvGPnn1aTEYuvMtiMCeKVVTWwn2mlHnVAm-b0a7XCB0Ng-hqm64XyPTqklS9g36Z
https://wenku.baidu.com/view/1d194945581b6bd97e19ea45.html

你可能感兴趣的:(数据挖掘)