更全的杂志信息网

融合Shapley值和粒子群优化算法的混合特征选择算法

更新时间:2009-03-28

0 引言

特征选择也叫特征子集选择,是指从已有的特征中选择出一些有效特征以降低数据集维度的过程,是提高学习算法性能的一个重要手段,也是模式识别中关键的数据预处理步骤。在分类过程中,数据集往往包含大量的特征,但是并不是所有的特征对于分类都是有用的,其中很多无关和冗余的特征会导致分类效果不佳,同时导致维数的复杂性[1],特征选择是解决数据冗余和不相关的一种非常有效的方法。

1.5.6 输入受污染的液体 高渗性高营养的液体如脂肪乳、氨基酸、10%的葡萄糖、白蛋白等,都是细菌良好的培养基,如果不慎将污染的液体经导管输入,细菌就会在导管停留,吸附在导管内壁繁殖,可引起管腔堵塞和血栓性静脉炎,更容易引起细菌感染。

特征选择的任务是从一组N个特征中按一定的选择标准选择出一组由n(n<N)个特征组成的特征子集,这个子集具有比特征全集更好的或一样的分类功能。这实际是一个组合优化的问题,且已被证明是非确定性多项式(Non-Deterministic Polynomial,NP)完全问题[2],所以最优特征子集的选择很重要。特征选择算法从模型上可分为Filter(滤波)模型和Wrapper(封装)模型[3]。一般来说Filter模型的效率高,但效果差;Wrapper模型的效率低,但效果好[4]。为了解决这两种模型存在的问题,文献[5]提出了结合Filter模型和Wrapper模型的混合模型,在性能上有一定的提高。Hualonga等[6]提出一种混合特征选择算法,将ReliefF算法与Shapley值结合,通过Shapley值选择贡献最高的相关特征,然后运用遗传算法进行特征子集选择。由 Sasikala等[7]所提出的SVEGA(Shapley Value Embedded Genetic Algorithm)特征选择算法,将遗传算法与Shapley值结合,同时通过增l减r法进行特征子集搜索以降低维度;对于同样的中小型数据,SVEGA与 Hualonga等[6]、Tan 等[8]、Kannan 等[9]所提出的算法都进行了比较,并且算法表现优异。PSO-LSSU(Particle Swarm Optimization with Local Search using Symmetric Uncertainty)算法[10]是一种使用基于对称不确定性的局部搜索方法改进粒子群优化(Particle Swarm Optimization,PSO)的特征选择算法,对于同样的8个高维数据集,它与 PSO-LS(PSO with Random Local Research)、PSO-LSRG(PSO with Random Local Research and Resetting Gbest)算法[11]进行比较并得到了更好的训练结果。

文献[12]经过对医疗数据集特征选择方法的研究,得出大多数现有方法存在以下问题:1)由于搜索方法的复杂性而导致迭代数过大;2)这些方法没有考虑所选的特征子集中的特征之间的相互作用;3)产生最佳分类精度的方法采用的特征子集的特征较多,导致相应的分类器需要更多的运行时间;相反,输出最少数量特征的方法却存在较差的分类精度。因此在实现最佳分类精度的同时尽可能减少特征数量,依然是个难题。文献[13]提出对于医疗数据集,PSO算法与支持向量机(Support Vector Machine,SVM)分类器的组合在分类精度和性能上更优于其他启发式算法与其他分类器的组合。

为了在减少特征数量的同时尽可能地实现最佳分类精度,本文提出一种融合 Shapley值和粒子群优化(Shapley Value and Particle Swarm Optimization,SVPSO)算法的混合特征选择算法,将PSO算法与博弈论的Shapley值结合,通过计算特征的Shapley值,在特征子集的局部搜索中去除冗余和不相关特征得出表现最为优异的特征子集,再运用SVM分类器进行分类以达到在减少特征数的同时提高分类精度的目的。

1 粒子群优化算法

PSO算法是一种全局随机优化算法。在PSO算法中,每个粒子代表一个解,每一次迭代,粒子通过跟踪两个“极值”更新自己:一个是粒子本身所找到的最优解,称为个体极值pbest;另一个极值是整个种群目前找到的最优解,称为全局极值gbest。每个粒子根据如下公式更新自己的速度和位置[14]:

 

更新pbest;

步骤2 逐个去掉粒子中Shapley值最低的特征,并计算其分类精度;

很多学者提出了基于PSO算法的特征选择方法[10-11],不少方法致力于减少所选择的特征数量,其中包括使用滤波模型以减少特征数量的方法。比如文献[15]运用互信息评估特征之间的相关性和冗余度,从而过滤掉全局极值gbest中的冗余特征,实验结果表明,相比以往的基于改进后的PSO算法的特征选择方法,所提方法在分类问题中表现更加优异,而文献[10]指出对于一些可能存在数千个不相关或冗余特征的数据集而言,文献[15]方法不好确定全局极值gbest中该过滤掉的特征数量,因此本文提出运用Shapley值对PSO算法进行局部搜索的特征选择方法。

2 特征选择中的Shapley值

Shapley值法是一种解决n个人合作对策问题的数学方法,合作中的每个人所得都与自己的贡献相等,是一种分配方式,普遍用于经济活动中的利益合理分配等问题。因此Shapley值法在特征选择中可用于计算特征子集中的每个特征的贡献值[16-17]

第二,起步阶段为集成大量全文资源,提供在线资源检索与全文获取服务,内容第一,形成资源优势与品牌效应。到目前为止,这依然是各大服务商的主营业务。

设集合N={1,2,…,n},如果对于N的任一子集S(对应n个人集合中的任一组合,即SN)都对应着一个实值函数v(S),v(S)表示子集S中每个人的贡献值的总和。v(S)若满足以下两个条件:

end

2)两个不相交的子集的并集的实值函数大于等于这两个子集的实值函数的和:

v(Si∪ Sj) ≥ v(Si)+v(Sj),Si∩ Sj= ,Si、Sj N,则称[N,v]为多人合作对策,v为对策的特征函数。

工伤保险是一个涉及多领域的专项保险,如经济、法律、医学等,工伤保险管理应有一支专业化、高水平的经办队伍。可以通过内部网络建立一个学习平台,随时将工伤保险政策、法规及相关领域的知识更新,定期录制专家讲课视频,供经办人员学习;建立内部论坛,增进全国各地经办人员之间的沟通,相互学习,共同探讨。

Shapley值定义如下:在特征选择中,将特征集合中的特征视为合作对策中的人,特征子集S的特征函数v(S)由子集S对分类器的性能的贡献度来表示,因此,特征i在特征子集S中对分类精度的边际贡献度为:

 

那么特征i的Shapley值为:

 

其中:Π是n!个特征子集的集合,Si(π)是Π中所有包含特征i的特征子集。

3 融合Shapley值和粒子群的特征选择

3.1 适应度函数

特征选择是一个典型的组合优化问题,将二进制PSO算法用于特征选择时,每个粒子代表一个特征子集,如果某一特征位被选中,对应的二进制位为1,否则对应位为0。特征选择的目的是以较少的特征数实现更高的分类准确率,因此适应度函数包含着分类准确率和子集大小两项指标。如果一个粒子既能够使分类器获得的分类精度越高,同时又使选择的特征数目越少,那么它的适应度值必定越高。而且,如果两个粒子取得的准确率相同,则特征数目少的粒子适应度值较高。因此定义适应度函数为:

 

if f(xi')>f(xpbest)then

3.2 基于Shapley值的局部搜索

局部搜索的目的是通过从当前的特征子集中删除一定数量的冗余特征找到更好的特征子集。在每次迭代中,根据式(5)计算粒子的适应值并根据适应值更新粒子的个体极值pbest。在粒子的局部搜索中,根据式(4)计算粒子中对应二进制位为1的每个特征的Shapley值并根据Shapley值对特征进行排序,去掉对分类问题贡献最低的特征,即将该特征的二进制位由1改为0,得到新的粒子,计算其分类精度,若分类精度高于原粒子的分类精度,则用该粒子取代原粒子后继续去掉Shalpey值最低的特征,以此类推,直到得到的新粒子的分类精度低于原粒子的分类精度为止则停止更新。计算最后得到的粒子的适应度值,若其适应值比个体极值pbest的适应度值高则更新pbest。

基于Shapley值的特征子集局部搜索算法流程如下:

步骤1 输入粒子(特征子集),计算每个特征的Shapley值并排序;

由于本文考虑的是齐次Boltzmann方程,所以先简单回顾下关于齐次Boltzmann方程已经解决的问题.1971年Arkeryd首先利用逼近的方法解决了在硬势、角截断条件下解的存在性[4],不久他进一步利用L1 空间中的弱紧性及碰撞算子的弱形式证明了在-1≤β<0及非角截断情形弱解的存在性[5].1997年, Goudon推广了这种方法, 在-2≤β<0情形下证明了解的存在性[6].随后Villani深入研究了-4<β<-2时的情形,并给出了新型的弱解[7], 由于此类解与熵有关, 将其称为H解.

步骤3 直到分类精度不再提高,更新粒子并输出。

所有粒子经过局部搜索后,得到全局极值gbest,根据式(1)、(2)对所有粒子的速度和位置进行更新,然后进入下一次迭代,直到达到最大迭代次数停止循环并输出最后的全局极值 gbest。

3.3 SVPSO算法描述

输入:粒子数M,迭代次数T;

应急应对方面,就云南省最近一次破坏性地震——2014年 “8.03”鲁甸MS6.5级地震情况来看,云南发生破坏性地震灾害时,存在的问题主要有以下这些。

输出:特征子集。

交流中,飓风集团的两位负责人都多次强调研发的重要性,认为这是推动企业更好前行的主推力。目前,针对研发,飓风集团主要有两方面的内容,一是数据软件的研发,主要由集团旗下的合道科技的技术工程师团队完成,支撑飓风网电商平台功能的开发、完善和维护,以及智能制造工厂中智能化管控系统的开发和管理。二是,为不断提高产品的技术含量,进行校企合作。目前,公司诸多产品的改造、研发、技术的提升,都是借用了合作院校的博士、研究员等行业精英人才的力量。从2017年开始到现在,集团已申请的产品专利达30多项。

1)初始化:随机生成M个具有m个特征的粒子,每个粒子的每位

上的值为0或1;

2)while达到最大迭代次数时停止循环do

for i=1 to M do

中证协12月26日发布的《证券基金经营机构债券投资交易业务内控指引》。《内控指引》力求从内控体系、风险控制、业务管理、人员管理等方面强化证券基金经营机构风控合规意识,确保债券投资交易规范展业。近年来,部分机构债券投资交易内控薄弱,以各种形式直接或变相放大杠杆博取高收益,甚至规避内控机制和资本占用等监管要求。市场人士称,出台这一指引,是为了更有效规范债券投资交易行为,防范债券市场风险。

计算每个粒子的适应值f(xi);

if f(xi)>f(xpbest)then

其中:表示t时刻粒子i速度向量的第j维分量,表示 t时刻粒子i位置向量的第j维分量,表示t时刻粒子i历史最优位置向量的第j维分量,表示t时刻粒子群历史最优位置向量的第 j维分量,r1、r2是两个0 ~ 1 的随机数,w、c1、c2表示群体认知系数。

end

3)运用Shapley值对粒子xi进行局部搜索得到xi',并计算其分类

end

2014年是贯彻党的十八届三中全会精神的开局之年,是深化水利改革的起始之年,是全面实施最严格水资源管理制度的关键之年。从2014年起,加快实施最严格水资源管理制度试点工作进入验收总结阶段,因此做好下一阶段试点工作十分重要。

if acc(xi')>acc(xi)then

更新xi;

图4设定中心埋深不同质量也不同相同,z1=20m,z2=40m,m1=400,m2=1000。对该模型利用式(8)进行成像。

end

其中,accuracy(xi)是子集xi在SVM分类器上的预测精度,SVM分类过程的一般步骤为划分训练集和测试集、数据预处理(特征选择)、训练SVM(训练集)、预测(测试集);nfeature(xi)代表特征子集的大小,即子集中1的个数;A为控制分类精度和特征数目对适应度函数的影响的因子,取值范围为[0,1]。T为迭代次数,在实验中T=50;t为当前迭代次数。在封装模式中,适应度函数用于评价特征子集的好坏,数据分类的准确率在适应度函数中应该起到主导作用。因此在实验中,随着迭代次数的增加,A将逐渐增大,当迭代数到达10次以后,A的取值固定为0.8。

更新pbest;

end

1)空集的实值函数为0:v()=0;

4)更新gbest;

对于互联网企业来讲,管理层要转变观念,认识到员工培训的重要性。同时要对公司全体员工展开宣传教育,使其明白培训的重要性,不可再令公司的教育培训流于形式。

for i=1 to M do

根据式(1)更新粒子i的速度;

根据式(2)更新粒子i的位置;

end

精度acc(xi')

4 仿真实验与结果分析

本文使用了17个具有不同特征数量的数据集来做实验,这些数据集来源于UCI机器学习数据集[18]和基因表达数据集[19]。这些用于测试的生物医学数据集依据特征数量可分为小型数据集(2~30个特征)、中型数据集(31~1 000个特征)和大型数据集(超过1 000个特征)。数据集的相关信息如表1和表2的第1列所示。

 

表1 中小型数据集中不同算法得到的特征子集规模和分类准确率Tab.1 Feature subset size and classification accuracy obtained by different algorithms in small and medium-sized datasets

  

数据集(样本个数,特征个数,分类种类)特征选择方法选择特征数分类准确率/%7 58.26 PSO 算法 3 66.15 SVEGA 1 75.36 SVPSO算法无Liver disorder(345,7,2)3 68.38 8 84.22 PSO 算法 3 60.75 SVEGA 5 93.54 SVPSO算法无E-Coli(336,8,8)2 63.25 9 67.77 PSO 算法 9 70.77 SVEGA 5 76.35 SVPSO算法无Post operative patient(90,9,3)2 83.33 9 77.34 PSO 算法 4 78.73 SVEGA 4 86.69 SVPSO算法无Pima diabetes(768,9,2)2 86.32 14 84.07 PSO 算法 7 78.57 SVEGA 8 84.88 SVPSO算法无Statlog heart(270,14,2)6 85.71 20 85.16 PSO 算法 5 90.00 SVEGA 6 90.51 SVPSO算法无Hepatitis(155,20,2)3 92.5 35 95.35 PSO 算法 12 97.22 SVEGA 18 98.54 SVPSO算法无Dermatology(365,35,6)7 96.76 57 65.62 PSO 算法 13 94.12 SVEGA 5 78.51 SVPSO算法无Lung cancer(32,57,3)7 88.24 10 79.34 Cardiac arrhythmia(452,280,16)280 70.13 PSO 算法 19 71.19 SVEGA 14 84.15 SVPSO算法无

为了测试本文提出的SVPSO算法的性能,本文使用10折交叉验证,对上面的每个数据集运行了50次,数据集随机分为训练集和测试集,在保证分类精度的情况下选择特征数最少的特征子集。对于所有数据集,都将先进行没有经过特征选择的分类实验,所得的分类精度将与经过SVPSO算法进行特征选择后的实验的分类精度比较。除此之外,SVPSO算法还都将与传统的PSO算法进行比较,而对于小型和中型数据集,SVPSO算法将与 SVEGA[7]进行比较。对于大型数据集,SVPSO算法将与PSO-LSSSU算法[10]进行比较。具体实验结果分别列于表1和表2(“无”表示数据集没有经过特征选择,直接用于分类实验)。

对于中小型数据集,表1的实验结果表明,将没有经过特征选择的数据集直接进行分类实验所得到的分类准确率普遍偏低,由此可见数据集中存在着大量不相关特征或冗余特征,而经过SVPSO算法进行特征选择后,所选择的特征数量比原数据集减少了55%以上,并且所减少的特征数量也随着原有的特征数量的增加而增加,尤其是中型数据集,所选择的特征数量更是减少了80%以上。根据所选择的特征进行分类实验所得的分类准确率提高了9~23个百分点。而与传统的PSO算法相比,与Shapley值结合后,在所实验的数据集中,SVPSO算法所选择的特征数都比PSO算法的要少,尤其在数据集 Post operative patient、Lung cancer、Cardiac arrhythmia 中,最高能减少78%。在分类精度方面,在大部分的数据集中,SVPSO算法所选择的特征子集的分类精度都要比PSO算法的高2~13个百分点。虽然在少数数据集中,比如Dermatology和Lung cancer,所得到的分类精度没有PSO算法高,但是依然可以在保持分类精度不会太差的情况下大幅降低特征个数。由此表明,运用Shapley值对PSO算法进行局部搜索可以有效消除冗余特征,从而可以发现具有更好辨别力的更小的特征子集。而在与SVEGA的对比中可以发现,除了第一个数据集Liver disorder的实验结果没有SVEGA的好,在其他数据集中所选出的特征子集不仅数量要比SVEGA的少25%~50%,分类精度也会差不多或者更高,最高能增加10个百分点。由此可见,Shapley值与PSO算法的结合在医疗数据集中要比与遗传算法的结合表现更加优异。

对于大型数据集,表2的实验结果表明,在经过SVPSO算法的特征选择后,大部分数据集的特征数量都能减少2个数量级,在数据集Leukemia1和Leukemia2中甚至能减少3个数量级,由此可见在大型数据集中,SVPSO算法是能够有效减少特征数量的。而在减少大量特征的同时,所选特征的分类准确率仍然能够提高2~22个百分点。与传统的PSO算法相比,融合了Shapley值的SVPSO所选择的特征子集的特征数也能比PSO算法所选的特征数低1或2个数量级,在数据集Leukemia1中更是能减少3个数量级,与此同时在分类精度上也能提高1~9个百分点。而与表现同样更加优异的PSO-LSSU算法相比,可以发现SVPSO算法在数据集9Tumor和Prostate中无论是特征数量还是分类精度都能优于PSOLSSU算法;而在数据集SRBCT、Brain Tumor 1和 Leukemia1中,SVPSO算法选择的特征子集也能在保持分类精度和PSOLSSU算法所选子集的分类精度差不多的情况下大幅减少特征子集的特征个数;在其他数据集中,SVPSO算法所选择的特征子集要么就是在特征数量上少于PSO-LSSU算法,要么就是在分类精度上高于PSO-LSSU算法。因此,从整体上来看SVPSO算法的表现比PSO-LSSU算法更优异。

二是为什么将2449点作为周线级别反弹的C4浪起点?而非2019年元旦前后的这个空间落点?从笔者的周期预测系统,确认的角度来看,确实只能定义为2449点就开始了这轮周线级别的反弹。同时,反向推导的话,春节后或者2019年第一季度的涨跌方向及节奏看,也只能把2449点定义为周线级别反弹的开始;

在学生“互动解疑”过程中,教师要穿插到各个小组中根据组内交流讨论的情况进行适时的指导点拨,重点关注技术动作重难点的解决情况和需要展示的问题。

5 结语

为了在减少特征数量的同时尽可能地实现最佳分类精度,本文融合Shapley值与PSO算法,提出一种新的混合特征选择算法,并对17个具有不同特征数量的医疗数据集进行分类实验,通过计算特征子集中每个特征的Shapley值,从而在特征子集的局部搜索中删除掉冗余特征,使得算法所选择的特征子集的特征数量达到最小的同时保持一定的分类精度。仿真实验结果表明,无论是中小型的数据集还是大型的数据集,本文SVPSO算法所选择的特征子集在特征数量和分类精度上都能表现优异,不仅能删除数据集中55%以上不相关的或冗余的特征,尤其对于中大型数据集更能删减80%以上,还能将分类准确率提高2~23个百分点。

 

表2 大型数据集中不同算法得到的特征子集规模和分类准确率Tab.2 Feature subset size and classification accuracy obtained by different algorithms in big-sized datasets

  

数据集(样本个数,特征个数,分类种类)特征选择方法选择特征数分类准确率/%2309 87.08 PSO 算法 916 98.75 PSO-LSSU 60 99.97 SVPSO算法无SRBCT(83,2309,4)10 98.79 5469 83.00 PSO 算法 2287 93.70 PSO-LSSU 47 90.86 SVPSO算法无DLBCL(77,5469,2)67 93.07 5726 36.67 PSO 算法 2552 53.28 PSO-LSSU 47 51.39 SVPSO算法无9Tumor(60,5726,9)11 54.39 5920 72.08 PSO 算法 2478 75.28 PSO-LSSU 1082 76.78 SVPSO算法无Brain Tumor 1(90,5920,5)920 76.66 5327 79.72 PSO 算法 2296 93.93 PSO-LSSU 32 94.84 SVPSO算法无Leukemia1(72,5327,3)8 93.19 11225 89.44 PSO 算法 4580 92.05 PSO-LSSU 54 95.56 SVPSO算法无Leukemia2(72,11225,3)64 97.93 10509 85.33 PSO 算法 4590 84.91 PSO-LSSU 2670 86.98 SVPSO算法无Prostate(102,10509,2)370 87.14 12533 71.42 PSO 算法 5586 84.58 PSO-LSSU 267 87.51 SVPSO算法无11Tumor(174,12533,11)291 93.88

参考文献(References)

[1] 李策,王保云,高浩.基于自适应粒子群算法的特征选择[J].计算机技术与发展,2017,27(4):89-93.(LI C,WANG B Y,GAO H.Feature selection based on adaptive particle swarm optimization[J].Computer Technology and Development, 2017, 27(4):89 -93.)

[2] 陈彬,洪家荣,王亚东.最优特征子集选择问题[J].计算机学报,1997,20(2):133 -138.(CHEN B,HONG J R,WANG Y D.The optimal feature subset selection problem [J].Chinese Journal of Computers, 1997, 20(2):133 -138.)

[3] GUYON I, ELISSEEFF A.An introduction to variable and feature selection[J].Journal of Machine Learning Research, 2003, 3(3):1157-1182.

[4] 毛勇,周晓波,夏铮,等.特征选择算法研究综述[J].模式识别与人工智能,2007,20(2):211-218.(MAO Y,ZHOU X B,XIA Z, et al.A survey for study of feature selection algorithms[J].Pattern Recognition and Aitificial Intelligence,2007,20(2):211 -218.)

[5] PARK J S,SHAZZAD K M,KIM D S.Toward modeling lightweight intrusion detection system through correlation based hybrid feature selection[C]//Proceedings of the 2005 Chinese Intelligent Systems Conference.Berlin:Springer-Verlag, 2005:279 -289.

[6] HUALONGA B, JINGB X.Hybrid feature selection mechanism based high dimensional data sets reduction[J].Energy Procedia,2011,11(1):4973-4978.

[7] SASIKALA S, APPAVU S, GEETHA S.A novel adaptive feature selector for supervised classification[J].Information Processing Letters,2017,117(1):25-34.

[8] TAN F,FU X,ZHANG Y,et al.A genetic algorithm based method for feature subset selection[J].Soft Computing, 2008, 12(10):111-120.

[9] KANNAN S S, RAMARAJ N.A novel hybrid feature selection via symmetrical uncertainty ranking based local memetic search algorithm[J].Knowledge-Based Systems, 2010, 23(6):580 -585.

[10] TRAN B,ZHANG M,XUE B.A PSO based hybrid feature seletion algorithm for high-dimensional classification[C]//Proceedings of the 2016 IEEE Congress on Evolutionary Computation.Chan, Switzerland:Springer International Publishing, 2016:3801 -3808.

[11] TRAN B,XUE B,ZHANG M.Improved PSO for feature selection on high-dimensional datasets[C]//Proceedings of the 10th International Conference on Simulated Evolution and Learning.Berlin:Springer, 2014:503 -515.

[12] KUDO M,SKLANSKY J.Comparison of algorithms that select features for pattern classifiers[J].Pattern Recognition, 2000, 33(1):25-41.

[13] RAZI A, AFGHAH F, VARADAN V.Identifying gene subnetworks associated with clinical outcome in ovarian cancer using network based coalition game[C]//Proceedings of the 37th Annual International Conference of the IEEE Engineering in Medicine and Biology Conference.Piscataway, NJ:IEEE,2015:6509-6513.

[14] KENNEDY J, EBERHART R.Particle swarm optimization[C]//Proceedings of the 1995 IEEE International Conference on Neural Networks.Piscataway, NJ:IEEE,1995:1942 -1948.

[15] NGUYEN H B, XUE B, LIU I, et al.Filter based backward elimination in wrapper based PSO for feature selection in classification[C]//Proceedings of the 2014 IEEE Congress on Evolutionary Computation.Piscataway,NJ:IEEE,2014:3111-3118.

[16] MORETTI S,van LEEUWEN D, GMUENDER H,et al.Combining Shapley value and statistics to the analysis of gene expression data in children exposed to air pollution[J].BioMed Central Bioinformatics,2008,9(1):1 -21.

[17] KEINAN A,SANDBANK B,HILGETAG C C,et al.Fair attribution of functional contribution in artificial and biological networks[J].Neural Computation,2014, 16(9):1887 -1915.

[18] HETTICH S, BLAKE C, MERZ C.UCI repository of machine learning databases[EB/OL].[2017-07-08].http://www.ics.uci.edu/mlearn/MLRepository.html.

[19] STATNIKOV A,ALIFERIS C F,TSAMARDINOS I.Gene expression datasets[EB/OL].[2017-08-10].http://www.gems-system.org.

 
邓秀勤,李文洲,武继刚,刘太亨
《计算机应用》 2018年第05期
《计算机应用》2018年第05期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息