基于知识粗糙熵的快速属性约简算法

2024-03-05 19:10王小雪殷锋杨雅雯
计算机应用研究 2024年2期
关键词:粗糙集

王小雪 殷锋 杨雅雯

收稿日期:2023-06-18;修回日期:2023-08-07  基金項目:国家自然科学基金资助项目(61105061);国家社会科学基金资助项目-重大招标项目(19ZDA284);四川省科技资助项目-重点研发项目(2023YFN0026);四川省教育信息技术研究资助项目(DSJ2022036);成都市哲学社会科学规划资助项目(2022BS027);西南民族大学中央高校基本科研业务费专项资金资助项目(2022SZL20)

作者简介:王小雪(1992—),女(仫佬族),贵州凯里人,硕士研究生,主要研究方向为粗糙集和数据挖掘;殷锋(1972—),男(侗族)(通信作者),贵州榕江人,教授,硕导,博士,主要研究方向为人工智能和数据挖掘等(yf_eagle@swun.edu.cn);杨雅雯(2000—),女(回族),山东德州人,硕士研究生,主要研究方向为社会网络分析和数据挖掘.

摘  要:针对基于正域的属性约简算法在约简过程中存在重复计算属性相对重要度从而导致算法效率低的问题,从属性度量和搜索策略的角度提出基于知识粗糙熵的快速属性约简算法。首先,在决策信息系统中通过引入知识距离提出知识粗糙熵以度量知识的粗糙程度;其次,利用知识粗糙熵作为属性显著度的评价标准来评估单个属性的重要程度;最后,利用属性重要度对所有条件属性进行排序,且通过属性依赖度删除冗余属性,从而实现快速约简。在六个公开数据集上将所提算法与其他三种算法在运行效率和分类精度上进行对比实验。结果表明,该算法的运行效率比其他三种算法分别提高了83.24%,28.77%和59.92%;在三种分类器中,分类精度分别平均提高了0.83%、0.63%和1.37%。因此,所提算法在保证分类性能的同时,能以更快的速度获得约简。

关键词:粗糙集;属性约简;知识距离;属性重要度

中图分类号:TP18    文献标志码:A

文章编号:1001-3695(2024)02-025-0488-05

doi:10.19734/j.issn.1001-3695.2023.06.0258

Fast attribute reduction algorithm based on knowledge rough entropy

Wang Xiaoxue,Yin Feng,Yang Yawen

(School of Computer Science & Engineering,Southwest Minzu University,Chengdu 610041,China)

Abstract:In order to address the problem of low algorithm efficiency caused by repeated calculation of the relative importance of attributes in the attribute reduction algorithm based on positive region,this paper proposed a fast attribute reduction algorithm based on knowledge rough entropy from the perspectives of attribute measurement and search strategy.Firstly,it introduced knowledge rough entropy into decision information systems by incorporating knowledge distance to measure the degree of knowledge roughness.Next,it employed knowledge rough entropy as the criterion for evaluating the significance of attributes,assessing the importance of individual attributes.Finally,it ranked all attributes based on attribute importance,and eliminated redundant attributes through dependency,so as to achieve rapid attribute reduction.The proposed algorithm was compared with other three algorithms in terms of running efficiency and classification accuracy on six publicly available datasets.The results demonstrate that the proposed algorithm improves running efficiency by 83.24%,28.77%,and 59.92% respectively compared to other three algorithms.Among the three classifiers,the classification accuracy increases on average by 0.83%,0.63%,and 1.37% respectively.Therefore,the proposed algorithm is able to achieve attribute reduction more quickly while ensuring classification performance.

Key words:rough set;attribute reduction;knowledge distance;attribute importance

0  引言

属性约简在粗糙集理论中扮演着重要的角色[1],其主要目标是在保持相同分类能力的前提下删除不重要的属性,以优化数据表、提高计算效率和分类性能。该技术已广泛应用于多个领域,如文本分类[2]、基因数据表达[3]、入侵检测[4]等。

在粗糙集理论中,属性约简通常使用贪心启发式搜索[5]来获取约简。然而随着数据量的增加,该方法的计算时间也会显著增加。为解决这一问题,研究者们提出不同改进算法以提高计算效率。Qian等人[6,7]首先提出基于正向近似的快速约简算法,在迭代过程中通过减少正域中的样本来加快算法的执行速度。该方法被进一步扩展到不完备有序模糊粗糙集[8]、模糊粗糙集[9]、不完备决策粗糙集[10]和多尺度信息系统[11]的快速属性约简算法的研究工作中。在基于正向近似加速搜索策略的基础上,Shu等人[12]利用区分和不可区分关系度量属性显著度,从属性度量的角度提出一种新的快速属性约简方法。尽管前述研究成果在缩减属性评估时间和提高计算效率方面取得了进展,但相对重要度的计算次数并没有减少。在属性约简过程中,属性重要度的计算次数是决定运行效率的一个关键因素。因此,Liang等人[13]进一步通过减少迭代过程中的样本和冗余属性实现快速约简。该搜索策略被扩展到更复杂的模型,如序信息系统[14]和集值信息系统[15]。前述快速属性约简算法主要采用基于样本的搜索策略,在迭代过程中通过减少样本的比较次数来提升算法效率。由于他们使用前向选择策略来获取最优特征子集,在不断选择相对重要属性的约简过程中都需要对属性进行重復排序,当数据规模较大时还是具有较高时间复杂度。所以,本文在前述基于正域的属性约简算法的基础上进行改进,旨在提升属性约简的效率。

建立合理有效的属性评价函数是属性约简的核心步骤,其在很大程度上会影响约简的计算效率、所选属性子集的分类泛化性能以及算法的搜索策略。为此,学者们提出许多属性显著度评价函数,如熵[16~18]、知识粒度[19,20]、距离[21,22]等。而将知识距离[23,24]用于属性约简的研究不多,考虑到知识距离可用于刻画两个知识空间的差异或相似度,因此利用知识距离来评价属性的显著度是一个值得研究的课题。

综上,本文从属性度量和搜索策略的角度,提出基于知识粗糙熵的快速属性约简算法(fast attribute reduction algorithm based on knowledge rough entropy,FARKRE)。文献[23,24]首次提出基于邻域信息粒的知识距离,但不适用于经典粗糙集模型,不具有扩展性。因此,在前期相关工作[25,26]基础上,本文提出知识粗糙熵用于评价条件属性的重要程度。由于该方法只需对条件属性计算一次属性重要度,且在每次迭代过程中只需要计算一次正域,所以很大程度上可以减少属性重要度的计算次数,从而提升算法效率。实验结果表明,FARKRE算法是有效的,尤其是对于大规模数据和高维数据,这为复杂数据的快速属性约简算法提供了新途径。

1  基于正域的属性重要度

定义1[6]  设S=(U,C∪D)为一个决策信息系统,其中U={x1,x2,…,xn}为对象的有限非空论域,C={c1,c2,…,cm}为条件属性的有限非空集合,D={d}为决策属性。c∈C存在一个映射c:U→Vc,Vc表示属性c的值域,则

IND(C)={(x,y)∈U2|c(x)=c(y),c∈C}(1)

[x]C={y∈U|(x,y)∈IND(C)}(2)

U/C={[x]C|x∈U}(3)

其中:IND(C)为等价关系;[x]C为等价类;U/C为论域上的一个划分。

定义2[6]  设S=(U,C∪D)为一个决策信息系统,若BC,XU,则上近似和下近似分别定义为

B(X)={x∈U|[x]B∩X≠}(4)

B(X)={x∈U|[x]BX}(5)

其中:正域POSB(X)=B(X)表示根据属性集B判断肯定属于X元素的集合。

定义3[6]  设S=(U,C∪D)为一个决策信息系统,若BC,则依赖度定义为

rB(D)=|POSB(D)||U|(6)

定义4[6]  设S=(U,C∪D)为一个决策信息系统,若BC,a∈B,则属性a关于决策D的内部属性重要度定义为

Siginner1(a,B,D)=rB(D)-rB-{a}(D)(7)

内部属性重要度主要用于核属性的计算。若Siginner1(a,B,D)>0,则说明属性a是必要的,且为核属性。若Siginner1(a,B,D)=0,则说明属性a不是必要的。

定义5[6]  设S=(U,C∪D)为一个决策信息系统,若BC,a∈C-B,则属性a关于决策D的外部属性重要度定义为

Sigouter1(a,B,D)=rB∪{a}(D)-rB(D)(8)

外部属性重要度是用于选择候选属性的一个指标,它在迭代过程中起着重要的作用。在每次搜索约简过程中,选择具有最大外部重要度的属性,并将其添加到约简中,直至满足算法的停止条件。

2  基于知识粗糙熵的属性重要度

由于文献[23,24]所提出的知识距离不适用于传统粗糙集模型,所以本文在前期基础上进行改进,提出知识粗糙熵用于度量传统粗糙集模型中属性的重要程度。为证明知识粗糙熵作为度量属性重要度的合理性,分别证明其具有非负性、对称性和单调性。

属性约简的目的是保留划分能力、逼近能力强的属性,去除不重要的属性,知识粗糙熵可以度量知识的粗糙程度和属性的划分能力。若属性的划分能力越强,则知识就越精细。因此,在搜索约简的过程中,需要选择那些使得知识更精细的属性。

定义6[24]  设S=(U,C∪D)为一个决策信息系统,若A,BC,U/A={SA(xi)|xi∈U},U/B={SB(xi)|xi∈U},则U/A和U/B之间的知识距离定义为

D(U/A,U/B)=1|U|∑|U|i=1|SA(xi)⊕SB(xi)||U|(9)

其中:|SA(xi)⊕SB(xi)|=|SA(xi)∪SB(xi)|-|SA(xi)∩SB(xi)|。D(U/A,U/B)主要用于表示两个划分之间的差异性。若D(U/A,U/B)的值越大,說明U/A和U/B之间的差异就越大;反之,就越小。

定义7  设S=(U,C∪D)为一个决策信息系统,若U/A={A1,A2,…,Am},σ={x1,x2,…,x|U|},其中AC,σ=U为论域上最粗的划分,则U/A的知识粗糙熵定义为

KRE(U/A,σ)=

∑mi=1|Ai∪U|-|Ai∩U||Ai∪U|

|Ai∩U|(10)

若KRE(U/A,σ)的值越小,说明U/A越接近最粗的划分,即U/A就越粗糙,意味着属性集A对论域的划分能力越弱。若KRE(U/A,σ)的值越大,说明U/A越精细,也就意味着属性集A对论域的划分能力越强。

定理1  设S=(U,C∪D)为一个决策信息系统,若AC,U/A={A1,A2,…,Am},则KRE(U/A,σ)≥0。

证明  由于|Ai∪U|≥|Ai∩U|,根据式(10),KRE(U/A,σ)≥0成立。

定理2  设S=(U,C∪D)为一个决策信息系统,若AC,U/A={A1,A2,…,Am},则KRE(U/A,σ)=KRE(σ,U/A)。

证明  由于|Ai∪U|=|U∪Ai|,|Ai∩U|=|U∩Ai|,根据式(10),KRE(U/A,σ)=KRE(σ,U/A)成立。

定理3  设S=(U,C∪D)为一个决策信息系统,若BAC,U/A={A1,A2,…,Am},U/B={B1,B2,…,Bn},则KRE(U/A,σ)≥KRE(U/B,σ)。

证明  由于BA,有U/AU/B。根据已知条件U/B至少存在一个B1可以细分为U/A中的A1和A2。为简单化,本文假设只有B1可细分为A1和A2,从而有B1=A1∪A2,根据式(10)有

KRE(U/B,σ)-KRE(U/A,σ)=

1|U|(|U|-|B1||U||B1|-|U|-|A1||U||A1|-|U|-|A2||U||A2|)=

1|U|(|U|-|B1||U||B1|-|U|-(|A1|+|A2|)|U|(|A1|+|A2|)-

2|A1||A2||U|)=1|U|(|U|-|B1||U||B1|-|U|-|B1||U||B1|-

2|A1||A2||U|)=1|U|(-2|A1||A2||U|)≤0

根据计算可知,KRE(U/A,σ)≥KRE(U/B,σ)成立。

由定理1~3可知,知识粗糙熵的定义满足非负性、对称性和单调性。其性质证明了知识粗糙熵作为属性重要度评价标准的合理性。

定义8  设S=(U,C∪D)为一个决策信息系统,若AC,U/A={A1,A2,…,Am},U/D={D1,D2,…,Dn},则属性集A近似决策属性D的知识粗糙熵定义为

KRE(U/A(D),σ)=1|U|∑ri=1|U|-|Ai||U||Ai|(11)

其中:U/A(D)=U/A∩U/D={A1,A2,…,Ar}。

定义9  设S=(U,C∪D)为一个决策信息系统,若aC,U/a={A1,A2,…,Am},U/D={D1,D2,…,Dn},则属性a的属性重要度定义为

Sig2(a,D)=KRE(U/a(D),σ)-KRE(U/a,σ)(12)

其中:Sig2(a,D)表示属性a的重要度,同时也表征条件属性的划分能力和逼近决策的能力。若Sig2(a,D)的值越大,则说明属性a越不重要,意味着属性a的划分能力和逼近决策的能力越弱;若Sig2(a,D)的值越小,则说明属性a越重要,意味着属性a的划分能力和逼近决策的能力越强。

3  基于知识粗糙熵的快速属性约简算法

根据基于知识粗糙熵的属性重要度定义,本文提出一种基于知识粗糙熵结合依赖度的多度量约束的快速属性约简算法。首先,根据基于知识粗糙熵的属性重要度计算每个条件属性的重要度;其次,根据重要度大小按照降序对单个条件属性进行排序;最后,根据保持依赖度不变的思想依次删除属性重要度为0的条件属性。

算法1  基于知识粗糙熵的快速属性约简算法(FARKRE)

输入:决策信息系统S=(U,C∪D)。

输出:一个约简R。

a) 初始化R←。

b)for each a∈C

根据式(12),计算a∈C的属性重要度Sig2(a,D)。

end for

c)根据Sig2(a,D)值的大小对条件属性按照降序排序,得到Sort(C)。

d)R←Sort(C)。

e)根据式(6),计算依赖度rR(D)。

f)for each a in Sort(C) do

Siginner1(a,R,D)=rR(D)-rR-{a}(D);

if Siginner1(a,R,D)=0 then

R←R-{a};

end if

end for

g)返回R。

在FARKRE算法中,步骤a)初始化的时间复杂度为O(1),步骤b)计算Sig2(a,D)的时间复杂度为O(|U|×|C|),步骤c)和d)的总时间复杂度为O(|U|×log |C|),步骤e)计算属性依赖度的时间复杂度为O(|U|2),步骤f)利用依赖度作为终止条件来搜索约简的时间复杂度为O(|U|2×|C|)。经过分析可得到FARKRE算法的时间复杂度为O(|U|2×|C|)。

本文从理论上分析了FARKRE算法的時间复杂度,并与经典的基于正域的属性约简算法(forward greedy attribute reduction algorithm,FGAR)[5]、基于正向近似集的加速约简算法(accelerating reduction approach for IDT using positive approximation set,ARIPA)[10]、基于条件信息熵的属性约简算法(algorithm of attribute reduction based on conditional entropy in interval-valued ordered decision table,ARCE)[18]的时间复杂进行比较,如表1所示。

由表1可知,四种算法的时间复杂度一样。相比之下FARKRE算法的优势在于以下三点:

a)FARKRE算法采用先对条件属性重要度进行预评估,再依次删除冗余属性的搜索策略。其他三种算法都是以核属性为初始集合集来搜索约简,当数据规模较大时,核属性的计算很耗时。

b)由于FARKRE算法明确了搜索方向,能有效减少迭代过程中属性重要度的计算次数,所以具有更高的计算效率。

c)约简结果不仅保持了依赖度不变,还选择了划分能力、逼近能力较强的属性。

例1  表2为一个关于某些病人的决策信息系统S=(U,C∪D) ,其中U={x1,x2,…,x8}为论域,共有8个病人。C={c1,c2,c3}为3个条件属性的属性集,其中c1表示头痛,c2表示肌肉痛,c3表示体温;D={d}为单个决策属性,表示流感。属性值“Y”“N”“Nor”“H”“VH”分别表示“是”“否”“正常”“高”“很高”。

根据算法1,约简的过程如下:

首先,根据式(12)分别计算c1、c2、c3的属性重要度,得到:

Sig2(c1,D)=0.25,Sig2(c2,D)=0.312 5,Sig2(c3,D)=0.125

其次,根据属性重要度按照从大到小进行排序,得到R={c2,c1,c3}。

最后,再根据保持依赖度不变的思想,在迭代过程中删除重要度为0的非必要属性,保留重要度不为0的必要属性。

第一次迭代,从R中删除属性c2,计算Siginner1(c2,R,D) 得到r{c2,c1,c3}(D)-r{c1,c3}(D)=0,因此删除属性c2。

第二次迭代,从R中删除属性c1,计算Siginner1(c1,R,D) 得到r{c1,c3}((D)-r{c3}(D)>0,因此保留属性c1。

第三次迭代,从R中删除属性c3,计算Siginner1(c3,R,D) 得到r{c1,c3}(D)-r{c1}(D)>0,因此保留属性c3。

根据算法1得到一个约简R={c1,c3},与其他三种算法所得结果一样。根据约简结果可知,在表2的决策信息系统中,“体温”最重要,其次是“头痛”,“肌肉痛”是不重要的。也就是说,在根据病人特征(条件属性)来判断一个病人是否患流感时,可以不用考虑“肌肉痛”。由此可见,所得约简结果比较符合实际情况,验证了本文所提属性重要度度量方法的合理性和有效性,以及FARKRE算法在实际应用中的可行性。

4  实验结果与分析

4.1  实验设置

本文从UCI数据集网站下载了六组数据集,并将其用于算法性能的测试,数据详细信息如表3 所示。实验所使用环境为64 bit Windows 11系统,处理器为AMD Ryzen 7 6800H,内存为16 GB,软件为Python 3.9。

FARKRE与FGAR、ARIPA和ARCE算法进行对比,比较分析的评价指标分别是运行时间、约简长度和分类精度。对比实验分为三组。

第一组实验:对比不同算法的运行时间与约简长度。

第二组实验:对比不同算法对于样本规模和消耗时间之间的关系。

第三组实验:采用十折交叉验证法,对比不同算法获得的约简在支持向量机(support vector machine,SVM)、K-最邻近(K-nearest-neighbor,KNN)、随机森林(random forest,RF)三种分类器中的平均分类精度。

4.2  实验结果与分析

对于本文实验结果,时间保留2位小数,平均分类精度保留3位小数,并以加粗的形式表示该结果优于其他算法的结果。

4.2.1  运行时间和约简长度对比

四种算法在六组数据集上的运行时间和约简长度的对比如表4和5所示。根据表4可知,除了在数据集mushroom 上,ARCE 算法的运行时间最短,FARKRE算法在其余五组数据集上的运行时间均低于其他三种算法。在数据维度最大的数据集TUANDROMD上,FGAR、ARIPA和ARCE算法的运行时间为FARKRE算法的7.46倍、1.64倍和2.28倍。在数据规模最大的数据集connect-4上,FGAR、ARIPA和ARCE算法的运行时间为FARKRE算法的6.11倍、1.36倍和2.59倍。在mushroom、letter、shuttle和connect-4这四组数据集上,它们的数据规模呈递增关系。在这四组数据集中数据规模最小的mushroom上,FARKRE算法运行效率不如ARCE 算法,但当数据规模增大时,FARKRE算法运行效率较ARCE 算法具有明显优势。

经计算和分析可知,在这六组数据集上,FARKRE算法运行效率整体优于FGAR、ARIPA和ARCE算法,且FARKRE算法在大规模数据和高维数据上表现更佳。

根据表5可知,在数据集SCADI、mushroom上,ARCE算法获得更短的约简。在其他数据集中,四种算法得到的约简长度一样。这表明本文算法是可行的,能有效剔除不必要的属性。

4.2.2  样本规模和消耗时间之间关系对比

图1展示了样本数量在不断增加的情况下, FGAR、ARIPA、ARCE和FARKRE四种算法运行时间的变化趋势。在每个子图中,横坐标代表样本的规模,纵坐标代表运行时间。本文将每个数据集的样本平均划分为10等份,并依次添加1份作为测试算法时间消耗的数据集。

根据图1可知,在样本规模不断增大的情况下,算法的执行时间呈现上升趋势。在图(a)(b)中可看到,随着样本规模的逐渐增加,FARKRE算法运行时间始终低于其他三种算法。在图(d)(e)中可看到,当样本规模较小时,ARCE算法的运行时间最短。但当样本规模逐渐增大时,FARKRE算法的运行时间低于ARCE算法。由此更进一步验证FARKRE算法在大规模、高维数据上具有一定的优势。

4.2.3  分类精度对比

对于FGAR、ARIPA、ARCE和FARKRE算法获得的约简结果,通过SVM、KNN和RF三种分类模型对分类精度进行对比,对比结果分别如表6~8所示。

根据表6可知,只有在数据集TUANDROMD和letter上,FARKRE算法在SVM中的分类精度低于FGAR、ARIPA和ARCE算法,在其余数据集上,FARKRE算法的分类精度不低于其他三种算法。在这六组数据集上,FARKRE算法的分类精度比其他三种算法分别提高0.71%、0.71%和1.06%。

由表7可知,在数据集TUANDROMD、mushroom和letter上,FARKRE算法在KNN中的分类精度低于FGAR、ARIPA和ARCE算法,在其余数据集上FARKRE算法的分类精度不低于其他三种算法。在这六组数据集上,FARKRE算法的分类精度比他三种算法分别提高0.46%、0.46%和0.96%。

由表8可知,在数据集Tuandromd上,FARKRE算法在RF中的分类精度低于FGAR和ARIPA算法。在数据集letter上,FARKRE算法的分类精度低于其他三种算法。在其余数据集上FARKRE算法的分类精度不低于其他三种算法。在这六组数据集上,FARKRE算法的分类精度比其他三种算法分别提高1.42%,1.42%和1.28%

根据上述三组实验结果及分析可知,FARKRE算法不仅在计算效率上优于FGAR、ARIPA和ARCE算法,而且在三种分类器中分类性能的差异也表明其有效性和可行性。

5  結束语

为提升属性约简算法的效率,本文提出知识粗糙熵,并基于此提出一种多度量约束的快速属性约简算法——FARKRE算法。该算法在循环搜索约简过程中减少了对属性重要度的计算次数,具有更高的计算效率。在数值实验中,本文使用公开数据集,通过比较FARKRE、FGAR、ARIPA和ARCE四种算法的性能来验证本文算法的效率和有效性。通过三组实验的对比结果表明FARKRE算法能有效剔除冗余属性,且在计算效率和分类精度方面优于其他三种算法。

FARKRE算法虽然在分类性能上优于改进前的算法,但在某些数据集中分类精度较低。因此,在下一步的研究工作中主要分为两方面。首先,对FARKRE算法进行优化,以获得更高的分类精度;其次,将知识距离引入其他类型的粗糙集模型中,如区间值、集值等,以更高效率地获得高分类性能的约简。

参考文献:

[1]周涛,陆惠玲,任海玲,等.基于粗糙集的属性约简算法综述[J].电子学报,2021,49(7):1439-1449.(Zhou Tao,Lu Huiling,Ren Hailing,et al.A review of attribute reduction algorithms based on rough sets[J].Acta Electronica Sinica,2021,49(7):1439-1449.)

[2]Fan Xiaodong,Chen Xiangyue,Wang Changzhong,et al.Margin attri-bute reductions for multi-label classification[J].Applied Intelligence,2022,52(6):6079-6092.

[3]Liu Keyu,Li Tianrui,Yang Xibei,et al.Hierarchical neighborhood entropy based multi-granularity attribute reduction with application to gene prioritization[J].International Journal of Approximate Reasoning,2022,148:57-67.

[4]Luo Jan,Wang Huajun,Li Yanmei,et al.Intrusion detection system based on genetic attribute reduction algorithm based on rough set and neural network[J].Wireless Communications and Mobile Computing,2022,2022:1-10.

[5]Hu Xiaohua,Cercone N.Learning in relational databases:a rough set approach[J].Computational Intelligence,1995,11(2):323-338.

[6]Qian Yuhua,Liang Jiye,Pedrycz W,et al.Positive approximation:an accelerator for attribute reduction in rough set theory[J].Artificial Intelligence,2010,174(9-10):597-618.

[7]Qian Yuhua,Liang Jiye,Pedrycz W,et al.An efficient accelerator for attribute reduction from incomplete data in rough set framework[J].Pattern Recognition,2011,44(8):1658-1670.

[8]Qian Wenbin,Shu Wenhao.Attribute reduction in incomplete ordered information systems with fuzzy decision[J].Applied Soft Computing,2018,73:242-253.

[9]Ni Peng,Zhao Suyun,Wang Xizhao,et al.PARA:a positive-region based attribute reduction accelerator[J].Information Sciences,2019,503:533-550.

[10]Yan Tao,Han Chongzhao,Zhang Kaitong,et al.An accelerating reduction approach for incomplete decision table using positive approximation set[J].Sensors,2022,22(6):2211.

[11]陈曼如,张楠,童向荣,等.基于多尺度属性粒策略的快速正域约简算法[J].计算机应用,2019,39(12):3426-3433.(Chen Manru,Zhang Nan,Tong Xiangrong,et al.Fast positive domain reduction algorithm based on multi-scale attribute granular strategy[J].Journal of Computer Applications,2019,39(12):3426-3433.)

[12]Shu Wenhao,Qian Wenbin.A fast approach to attribute reduction from perspective of attribute measures in incomplete decision systems[J].Knowledge-Based Systems,2014,72:60-71.

[13]Liang Jiye,Mi Junrong,Wei Wei,et al.An accelerator for attribute reduction based on perspective of objects and attributes[J].Know-ledge-Based Systems,2013,44:90-100.

[14]Du Wensheng,Hu Baoqing.A fast heuristic attribute reduction approach to ordered decision systems[J].European Journal of Operational Research,2018,264(2):440-452.

[15]陳曼如,张楠,童向荣,等.集值信息系统的快速正域约简[J].智能系统学报,2019,14(3):471-478.(Chen Manru,Zhang Nan,Tong Xiangrong,et al.Fast positive domain reduction of set-valued information systems[J].Journal of Intelligent Systems,2019,14(3):471-478.)

[16]Gao Can,Lai Zhihui,Zhou Jie,et al.Granular maximum decision entropy-based monotonic uncertainty measure for attribute reduction[J].International Journal of Approximate Reasoning,2019,104:9-24.

[17]Zhang Qinli,Chen Yiying,Zhang Gangqiang,et al.New uncertainty measurement for categorical data based on fuzzy information structures:an application in attribute reduction[J].Information Sciences,2021,580:541-577.

[18]张晓燕,匡洪毅.区间值序决策表的条件熵属性约简[J].山西大学学报:自然科学版,2023,46(1):101-107.(Zhang Xiaoyan,Kuang Hongyi.Conditional entropy attribute reduction of interval valued order decision table[J].Journal of Shanxi University :Na-tural Science Edition,2023,46(1):101-107.)

[19]Chen Yan,Wang Pingxin,Yang Xibei,et al.Granular ball guided selector for attribute reduction[J].Knowledge-Based Systems,2021,229:107326.

[20]Zhang Chucai,Dai Jianhua,Chen Jiaolong.Knowledge granularity based incremental attribute reduction for incomplete decision systems[J].International Journal of Machine Learning and Cyberne-tics,2020,11(5):1141-1157.

[21]Hu Meng,Tsang E C C,Guo Yanting,et al.Attribute reduction based on overlap degree and k-nearest-neighbor rough sets in decision information systems[J].Information Sciences,2022,584:301-324.

[22]Wang Changzhong,Huang Yang,Shao Mingwen,et al.Fuzzy rough set-based attribute reduction using distance measures[J].Know-ledge-Based Systems,2019,164:205-212.

[23]Qian Yuhua,Liang Jiye,Dang Chuangyin,et al.Knowledge distance in information systems[J].Journal of Systems Science and Systems Engineering,2007,16(4):434-449.

[24]Qian Yuhua,Liang Jiye,Dang Chuangyin.Knowledge structure,knowledge granulation and knowledge distance in a knowledge base[J].International Journal of Approximate Reasoning,2009,50(1):174-188.

[25]Yang Jie,Wang Guoyin,Zhang Qinghua.Knowledge distance measure in multi-granulation spaces of fuzzy equivalence relations[J].Information Sciences,2018,448-449:18-35.

[26]Yang Jie,Wang Guoyin,Zhang Qinghua,et al.Knowledge distance measure for the multigranularity rough approximations of a fuzzy concept[J].IEEE Trans on Fuzzy Systems,2020,28(4):706-717.

猜你喜欢
粗糙集
粗糙集与包络分析下舰船运行数据聚类算法
局部多粒度覆盖粗糙集
基于Pawlak粗糙集模型的集合运算关系
基于二进制链表的粗糙集属性约简
基于粗糙集的不完备信息系统增量式属性约简
优势直觉模糊粗糙集决策方法及其应用
基于键树的粗糙集属性约简算法
悲观的多覆盖模糊粗糙集
多粒化粗糙集性质的几个充分条件
双论域粗糙集在故障诊断中的应用