集上

  • 卷积神经网络与人工水母搜索的图特征选择方法
    法,但在实际数据集上进行特征选择的效果不好,结果较差.Peng et al[4]提出一种基于蚁群优化的改进特征选择算法,虽然大幅提升了贝叶斯过滤器的性能,但整体提升效果较差.Xue et al[5]通过生成非主导解(特征子集)的帕累托前沿解将非支配排序的思想引入粒子群算法来解决特征选择问题,但其收敛效果还有待提升.人工水母搜索(Artificial Jellyfish Search,AJS)算法是2020 年Ezzeldin et al[6]提出的一种新型

    南京大学学报(自然科学版) 2023年5期2023-10-29

  • 融入句法结构信息的句子级情感分析算法*
    ebank)数据集上学习文本的句法结构信息,该网络编码句子成分结构树的过程如图2 所示,具体计算公式如下:图2 Tree-LSTM网络的训练和预测其中ij,fjk,oj,uj,cj,ℎj同LSTM深度神经网络里一样,分别为输入门、遗忘门、输出门、输入表示、单元状态和输出的隐层状态,W,U,b均为可学习参数,N是指父节点所包含子节点数,对于成分句法树来讲N=2,即每个父节点只有左、右两个子节点。接下来使用Stanford Parser[14]将目标领域训练集

    计算机与数字工程 2023年6期2023-09-29

  • 基于深度学习的核电设备缺陷检测算法的实现与应用
    ,在训练集、验证集上的试验结果分别如图2、图3 所示,模型在训练集上的损失不断下降,模型在验证集上的损失不断增加。在验证集上的召回率如图4 所示,训练达到一定轮次后,召回率在22%左右波动。在验证集上的精确率如图5 所示,精确率升至50%后不断下降。模型在训练集上的损失正常下降,说明模型在不断收敛,在验证集上的精确率却在下降,说明模型的泛化能力弱。图2 训练集上的损失值图3 验证集上的损失值图4 验证集上的召回率指标图5 验证集上的精确率指标初步训练后,该

    中国新技术新产品 2023年8期2023-07-17

  • 迭代修正鲁棒极限学习机
    数据集和真实数据集上进行了数值实验。通过10 次交叉验证和网格搜索方法选择实验参数。所有上述算法选择的参数的范围如下:参数kmax:{10i,i=2,3,4},停止阈值p:{10i,i=-5,-4,…,1,2},正则化参数C1、C2:{10i,i=-5,-4,…,4,5}。所有的实验都在3.40 GHz 的机器上使用Pycharm 2019 进行。比较算法是极限学习机(ELM)和一些鲁棒极限学习机,包括加权极限学习机(WELM)、迭代重加权极限学习机(IR

    计算机应用 2023年5期2023-05-24

  • 基于标记权重和mRMR的多标记特征选择
    给出了在3个数据集上5种算法在5个评价指标上的最佳实验结果。由图1可知,在AP指标下,在Yeast数据集上,当N = 10时,MFSLM算法略差于WFSAM算法,优于其他3种算法,但在其余情况下均为最优;在Enron数据集上,当N = 100时,MF⁃SLM算法差于MFS-KA算法,优于其他3种算法,当N = 300时略差于WFSAM算法,但在其余情况下均为最优;在Reference数据集上,当50 ≤ N ≤ 200时,MFSLM算法差于WFSAM、MU

    山西大学学报(自然科学版) 2023年1期2023-04-06

  • 实数集到时标上的概念推广的若干原则
    起来,只需将实数集上的概念推广到时标上,建立时标上相应的理论,当时标退化为实数集和整数集时,所得到的理论就分别是微分方程和差分方程中的理论.因此,将实数集上的概念推广到时标上是有意义的.2 遵循的原则如果将定义在实数集上的某类函数推广到了时标上,但在时标上却找不到这种函数的例子,那该定义的推广就是毫无意义的,所以,从实数集到时标上的概念推广,第一个应该遵循的原则是—推广后的概念是良定义.2.1 良定义在笔者的以前的论文中[4]已经将加权伪概周期函数的概念推

    大学数学 2022年6期2023-01-14

  • 基于迁移学习的垃圾图像分类模型的比较研究
    ashNet数据集上获得87.2%的准确率;Aral等〔6〕又微调了DenseNet、Inception-v4、Xception以及MobileNet网络,在TrashNet数据集上进行训练及测试,得出使用微调后的DenseNet网络时效果最好,达到95%的准确率。TrashNet数据集具有背景简单、特征突出等特点,因此现有基于TrashNet数据集的方法往往都取得较高的准确率。当前的深度学习模型包括传统的深度卷积神经网络和基于注意力机制的深度神经网络。现

    大理大学学报 2022年12期2022-12-21

  • 噪声鲁棒的高光谱图像波段选择方法
    linas 数据集上的可视化矩阵。图1(a)和图1(c)分别展示了欧氏距离在Indian Pines 数据集与Salinas 数据集上的可视化矩阵。根据右侧图例,越靠近深蓝色区域欧氏距离越小,代表波段间的光谱差异越小;越靠近深红色区域欧氏距离越大,代表波段间的光谱差异越大;可以看出,噪声波段与其他正常波段间的欧氏距离较大,但噪声波段间的欧氏距离较小,例如Indian Pines 数据集中103—112 波段和148—165 波段,Salinas数据集中10

    遥感学报 2022年11期2022-12-15

  • 基于标记相关性和ReliefF的多标记特征选择
    在7个多标记数据集上的分类结果。从表2中可以看出,在AP指标上,MI-LW算法在Emotions、Education、Social、Yeast、Flags和Arts这6个数据集上均取得最优;在Health数据集上,MI-LW算法为次优,与ReliefF+I-Cor持平,比ReliefF高了0.063 3。在CV指标上,MI-LW算法在Emotions、Health、Yeast和Flags这4个数据集上均取得最优;在Education数据集上,MI-LW算法

    西北大学学报(自然科学版) 2022年5期2022-11-13

  • 基于双空间模糊邻域相似关系的多标记特征选择
    角度将多标记数据集上的特征进行分类,又从模糊相似关系的角度计算每个样本之间特征值的相似度.虽然基于FNRS的特征选择方法已在单标记数据集上广泛应用,然而少有针对多标记数据集的研究.因此,开发基于FNRS的多标记特征选择方法是有必要的.现有的基于模糊邻域粗糙集的多标记特征选择算法多从特征或标记的单一角度刻画特征对标记的重要程度,未综合考虑特征空间和标记空间对样本相似度的影响,并且大部分基于邻域关系的特征选择方法是借鉴专家的经验选取邻域参数值,具有一定的主观性

    模式识别与人工智能 2022年9期2022-10-17

  • 用于单音音乐音高估计的密集扩张卷积残差网络
    [28]3个数据集上进行训练.iKala数据集包含252个歌曲片段,每一条音乐的长度都是30 s,采样频率为44 100 Hz.音乐伴奏和歌唱声音分别在左右声道录制.MDB-stem-synth是来自MedleyDB的230个单音音频片段的集合,它使用分析/合成方法[27]生成合成音频,并提供完美的F0注释,以保持原始音频的音色和动态跟踪.该数据集包含230个曲目,25个乐器,总时长为15.56 h.MIR-1K数据集是中文流行歌曲数据集,包含1 000首

    东北师大学报(自然科学版) 2022年3期2022-09-28

  • 基于AP聚类和互信息的弱标记特征选择方法
    在6个多标记数据集上的实验结果. 最优结果为粗体表示.表2 0%缺失标记下4个指标的实验结果对比Table 2 Comparison results of four metrics under 0% missing labels表3 20%缺失标记下4个指标的实验结果对比Table 3 Comparison results of four metrics under 20% missing labels表4 40%缺失标记下4个指标的实验结果对比Table

    南京师大学报(自然科学版) 2022年3期2022-09-17

  • 单双点平滑结合的流形正则化半监督分类学习框架
    最后在UCI数据集上的实证结果显示,SDS_MR与MR相比具有一定的竞争力。为了更好地预测效果,近期有研究表明[9]对MR的改进,获得或多或少的改进效果。事实上,本文提出的SDS_MR框架也可以引入到这些改进中,有望进一步提高预测的有效性。1 相关工作1.1 流形正则化半监督分类框架(MR)流形假设是半监督学习中最常用的数据分布假设之一,它假设流形结构上的相似实例应该共享相似的分类输出。MR是一种半监督分类框架,它就是运用了流形假设进行深入研究的,近年来应

    计算机应用与软件 2022年5期2022-07-07

  • 基于自适应采样的不平衡分类方法
    后得到在原先训练集上的一个采样子集,并将该子集投入网络进行训练,同时将训练的结果视为奖励反馈给智能体进行训练,从而更新采样策略。Kim等[9]提出一种利用多数类样本生成少数类样本的上采样方法M2m,其首先在原始的不平衡分布数据集上训练得到一个预训练网络,然后利用该预训练网络辅助挑选多数类样本并生成少数类样本。针对数据层面的重采样方法大多使用固定的采样策略,在训练过程中无法根据分类模型的具体表现调整采样策略。Peng等[8]提出的基于强化学习的下采样方法虽然

    华南理工大学学报(自然科学版) 2022年4期2022-06-17

  • 基于随机扰动的过拟合抑制算法
    些模型在大型数据集上获得了较为优异的预测性能。但是当这样的大型网络模型在小数据集上进行训练时,由于可能存在很多冗余的特征,容易产生过拟合,从而导致模型预测性能不理想。当前针对模型的过拟合问题,主要是在模型的训练过程中对提取的样本特征采用一些正则化方法,例如:Dropout, 归一化[1-4]等,或是直接使用预训练权重进行初始化,然后在新的数据集上进行微调。其中,Dropout和归一化方法主要针对样本的特征进行操作,除此之外,在2019年和2020年,Yan

    计算机仿真 2022年5期2022-06-14

  • 基于Hellinger距离的不平衡漂移数据流Boosting分类算法*
    l 2种类型数据集上运行,实验结果使用G-mean指标展示,如表4和表5所示。表4给出了在突变型数据集上不同块大小算法的G-mean性能。整体看初始随着块大小的增长G-mean值也在不断增长,当d=1 000时除了Spiral数据集外其余7个数据集上的G-mean都开始下降,说明随着块大小的增大,不平衡比率也都在不断变化,使得分类器适应它的能力变差。但是,在d=1 750时,G-mean开始缓慢增长,Drifting Gaussian和Hyper Plan

    计算机工程与科学 2022年5期2022-05-27

  • 基于注意力和标签自适应的跨域行人重识别①
    型在两个不同数据集上性能的巨大落差。为增强行人重识别模型在跨域任务中的性能,文献[7]提出了源域相机到目标域相机的图像转换方法。该方法不直接在源域和目标域之间进行图像样式转换,而是将每一个相机看成是一个独立的子域,利用StarGAN[8]的多域图像到图像的转换方法,生成带有源域身份关联的目标相机域样式的图像,通过在生成的带有身份关联的图像上学习目标域行人身份特征表示。但这种方法生成的图像并不能完全替代真实的图像,可能导致生成的图像细节不利于行人重识别任务。

    高技术通讯 2022年2期2022-04-08

  • 结合流形学习与逻辑回归的多标签特征选择
    等5 个经典数据集上的收敛性结果。图1 FSML 算法在不同数据集上的收敛性结果Fig.1 Convergence results of FSML algorithm on different datasets3 实验与结果分析采用5 个经典数据集进行FSML 算法有效性验证,并将其与SCLS[21]、MDMR[22]、PMU[23]、FIMF[24]、CMLS[25]算法以及Baseline(选择所有特征)进行性能比较,同时选择ML-KNN[26]算法作

    计算机工程 2022年3期2022-03-12

  • 基于自适应鲸鱼优化算法和容错邻域粗糙集的特征选择算法
    6个高维基因数据集上的实验表明,本文算法可有效选择特征个数较少且分类精度较高的特征子集.1 基础知识1.1 鲸鱼优化算法鲸鱼优化算法(WOA)是模拟座头鲸捕食行为而提出的一种寻优算法,主要包括包围猎物、气泡网攻击和随机搜索3种行为[20].下面简要介绍3种行为的位置更新模型.1)包围猎物.由于目标位置或最优个体位置未知,WOA需要假设目标位置.一般选择初始适应度值最大的个体位置为目标位置,鲸鱼群体就会游向目标位置,位置更新公式如下:S(j+1)=S*(j)

    模式识别与人工智能 2022年2期2022-03-11

  • 融合多权重因素的低秩概率矩阵分解推荐模型
    ,其中在北京数据集上共有15384名用户,相互信任关系141556条,产生的有效评分70146条,评分信息的稀疏度为98.32%,用户社交关系的稀疏度为99.88%。Ciao是著名的欧洲消费点评网站,网站用户不仅可以浏览其他用户的评论还可以对其参与的商品进行评价。本文所采用的实验数据来自Tang等人[15]获取的1999年~2011年间的项目评分和社交数据。其中共有7357名用户,评分记录278483条,相互信任关系111781条,评分信息的稀疏度为99.

    电子与信息学报 2022年2期2022-03-09

  • 关于短文本匹配的泛化性和迁移性的研究分析
    我们首先在源数据集上进行训练,然后在目标数据集上直接测试性能(泛化),为了规避模型对泛化能力的影响,我们在所有实验中都使用了2个深度学习模型进行对照,一个是传统的深度学习模型ESIM[12],另外一个是预训练语言模型BERT[8].然后通过力导向图算法可视化数据集之间的关系.对于问题2,我们首先在源数据集上进行预训练,然后在目标数据集上微调再测试性能(迁移),同时对数据集之间的迁移关系进行了定量的分析,即给定不同的源数据集的数据量,观察迁移带来的性能提升效

    计算机研究与发展 2022年1期2022-01-19

  • GCD封闭集上的幂矩阵行列式间的整除性
    朱光艳, 李 懋, 谭千蓉(1. 湖北民族大学教育学院, 恩施 445000;2.西南大学数学与统计学院, 重庆 400715;3.攀枝花学院数学与计算机学院, 攀枝花 617000)1 IntroductionThroughout this paper, we denote by (x,y) (resp. [x,y]) the greatest common divisor (resp. least common multiple ) of intege

    四川大学学报(自然科学版) 2021年6期2021-12-27

  • 融合分类信息的随机森林特征选择算法及应用
    集,且在该特征子集上所构建的分类或回归模型达到与特征选择前近似甚至更好的预测精度。特征选择不仅可以提高应用算法的空间和时间效率,避免“维数灾难”[2],还可以在一定程度上避免算法的过拟合问题。根据特征评价策略,特征选择方法大致分为两种:过滤式(Filter)和封装式(Wrapper)[3-4]。过滤式方法在数据预处理步骤中对特征排序,设定阈值选择最优特征子集,这种方法独立于后续采取的机器学习算法。过滤式方法中经典的排序准则有Pearson相关系数[5]、互

    计算机工程与应用 2021年17期2021-09-07

  • 一种改进的ELM-SAMME算法及应用研究∗
    个UCI公共数据集上进行实验,其中不平衡率为少数类样本与多数类样本数量的比值。将本文方法首先和极限学习机(ELM)算法、以SVM为 弱 分 类 器 的AdaBoost算 法[11]、标 准 的ELM-SAMME算法的进行结果进行比较,本文算法为IELM-SAMME。各方法的参数设置如下:ELM中,激活函数设置为sigmoid函数,隐层节点数L设置为 nl(n为输入节点数,l为输出节点数);SVM-AdaBoost方法中迭代次数设置为10。ELM-SAMME

    计算机与数字工程 2021年6期2021-06-29

  • 基于LSTM神经网络的股票价格预测研究
    经网络模型在训练集上训练模型并在测试集上进行测试,对比不同的神经网络模型在不同的参数设置下的模型性能。本文选取模型评价指标中的平均绝对误差(MAE)、均方误差(MSE)、平均绝对百分比误差(MAPE)以及预测数据和真实数据之间的相关系数(ρ)作为模型性能的评价指标。平均绝对误差为(12)均方误差为(13)平均百分比误差为(14)相关系数为(15)2.3 实验结果及分析使用训练集训练不同的神经网络模型,然后在测试集上测试模型的性能,各模型在测试集上的预测结果

    北京信息科技大学学报(自然科学版) 2021年1期2021-04-09

  • 基于修剪树的优化聚类中心算法
    法,并在实际数据集上取得较好的应用效果,但该算法的聚类精度受SVNs距离测度的影响较大.2014年,徐晨凯和高茂庭[11]提出改进的最小生成树自适应分层聚类算法,根据近邻关系为每个聚类簇设定独立的阈值,适应分布密度相差较大的情况,实验结果表明,在分布密度不均时算法可获得较好的聚类效果.2016年,贾瑞玉和李振[12]将初始样本构造成最小生成树,利用层次分裂思想将树划分成多个簇,通过k⁃means算法迭代操作得到每次操作的评价函数值来判断是否进行簇合并,该算

    南京大学学报(自然科学版) 2021年2期2021-03-25

  • 基于迁移学习和批归一化的菜肴图像识别方法
    果直接在相关数据集上进行训练可能会带来严重的过拟合现象。对此,引入了迁移学习从而一定程度上缓解过拟合。Yanai等[10]从ILSVRC 1000 ImageNet数据集[11]和ImageNet 21000数据集中抽取出1 000种食物相关的图像,将其合并组成预训练数据集。将在该预训练集上训练成熟的AlexNet模型[12]应用到UEC-Food100数据集和UEC-Food256数据集上,并再次取得了当时最好的分类结果。Szegedy等[13]提出的G

    计算机应用与软件 2021年3期2021-03-16

  • 采场覆岩光纤监测数据LSSVM填补方法
    的有效性,在Ci集上通过随机函数确定需要挖去的数据,形成MCAR类和MAR类、NMAR类特征的缺失数据。3)将以上2步处理好的Ci划分为S_train和S_test样本。4)设置σ2,γ参数初始值。根据经验在实验过程中设置γ,σ2这2个参数的初始值分别为10和0.1。参数γ是权衡模型复杂度与误差之间的关系,σ为函数的宽度参数,控制了函数的径向作用范围,对系统的泛化能力具有一定影响。5)对S_train样本进行LSSVM模型训练,输入为位置信息和覆岩层属性组

    西安科技大学学报 2021年1期2021-03-02

  • 基于互信息的多级特征选择算法
    不同分类器和数据集上的优劣,本文使用Win/Draw/Loss 来统计并分析算法两两之间的差异。Win 表示算法A 优于B,Draw 表示算法A 等于B,Loss 表示算法A差于B[17]。表2的数据表示6种算法在不同数据集上,采用10折交叉验证法[22]在SVM 分类器得到的平均分类准确率结果。从表2可以看出,MI_MLFS 在15 个数据集上的分类准确率均比ReliefF算法高,并且MI_MLFS在这15个数据集上的平均准确率(AVG)相较Relief

    计算机应用 2020年12期2020-12-31

  • 一种改进多尺度三维残差网络的高光谱图像分类方法
    ersity数据集上未使用与使用三维卷积块时模型参数量、训练时间及总体分类精度情况。可以看出,在Indian Pines数据集上使用三维卷积块后,参数量下降约7 100 000个,训练时间和测试时间分别减少445.30 s和1.33 s,OA值提高0.25个百分点。在Pavia University数据集上使用三维卷积滤波器块后,参数量、训练时间及测试时间均有所下降,且OA值无明显提高,这是因为Pavia University数据集比Indian Pine

    计算机工程 2020年12期2020-12-16

  • 基于Corr-LDA-ITD模型同时做图像分类和标注
    法,并在真实数据集上对模型的分类和标注性能进行了验证。1 Corr-LDA-ITD-P模型同时做图像分类和标注1.1 Corr-LDA-ITD-P模型概率图Corr-LDA-ITD-P模型的概率如图1所示。1.2 Corr-LDA-ITD-P模型参数求解注利用变分EM算法求解参数[5],在E步骤中算得后验Dirichlet参数γ,参数φ,参数ρ分别为:(1)(2)(3)经过E步骤之后然后在M步骤中计算模型参数π,β,α,μ分别为:(4)(5)本文没有对α进

    无线互联科技 2020年16期2020-12-04

  • PDEs对四种图像降噪降维方法的影响
    -print数据集上进行了大量的比较实验.1 预备知识本节简要回顾文中要用到的SVM和OVO-MSVM,以及一些基本概念.1.1 二类支持向量机线性SVM是通过构建下面的二次规划模型(1)来寻找分类决策函数f(x)=w,x+b,其中w∈Rd和b∈R分别是决策函数的法向量和阈值,C>0是模型参数,是松弛变量,‖·‖和·,·分别表示向量的欧氏范数和内积.通过求解模型(1)的Wolfe对偶模型(2)算法1(SVM)步5 构造分类决策函数f(x)=w*,x+b*.

    聊城大学学报(自然科学版) 2020年4期2020-05-19

  • 可能性聚类假设的半监督分类方法
    )最后在实际数据集上做了大量的实验,证明了该方法的鲁棒有效性和分类可靠性。2 SSPCA2.1 问题描述当前,在实际分类应用中基于半监督的聚类方法存在一些实例难以将其明确分配给单一类,例如那些边界实例,由于传统的硬聚类假设隐含地约束每个实例具有清晰的标签分配,不能充分反映实际数据的分布情况,还有可能违反这些边界实例的分布。因此,该假设应用于半监督分类时,对那些边界实例的预测效果会比较差,尤其是当一些带标签的实例位于边界附近时,将会进一步“误导”分类。Wan

    计算机工程与应用 2020年9期2020-05-15

  • 基于联合损失函数的小规模数据人脸识别
    在大规模公开数据集上训练、测试. 针对现实生活中小规模人脸数据集,此类方法存在以下3个问题:① 公开的大规模人脸数据集多数为名人明星的照片或截取的视频帧,且欧美人居多,多变性较差. 在实际应用中,由于人种、光照、年龄、遮挡、姿势等问题,使得人脸识别更具有挑战性. ② 现有方法均在深度神经网络上进行训练,模型参数较多. 然而,直接在模型上训练小规模人脸数据集容易陷入过拟合,泛化能力较差. ③ 现有的方法均在公开数据集上测试,其在小规模数据集上是否有效尚未可知

    北京理工大学学报 2020年2期2020-04-07

  • 循环神经网络在端到端语音识别中的应用*
    更好的性能。开发集上的学习曲线不稳定,意味着随着训练周期的增加,训练的网络模型在开发集上并没有取得越来越好的性能。相对来说,BLSTM在开发集上的PER的整体趋势是下降的。表1总结了不同网络结构在训练集和测试集上最终的PER。双向网络即BLSTM和BRNN在训练集上的识别结果较好,然而比起单向网络,双向网络在测试集上的识别性能远远不如在训练集上的识别性能。这意味着双向网络存在过拟合问题。与RNN相比,LSTM更容易过拟合。对于BLSTM,仅20个训练周期后

    通信技术 2019年11期2019-12-04

  • 一种针对异常点的自适应回归特征选择方法
    集和4个标准数据集上进行实验,并与LASSO和LAD-LASSO进行对比.Table 1 Artificial Datasets表1 构造数据集Table 2 Benchmark Datasets表2 标准数据集Fig. 1 Feature selection results on D1图1 在D1数据集上的特征选择结果实验中AWLASSO方法的参数γ=0.4,μ=1.2,k初始值为2.5,终止值为0.000 1.在构造数据集上,实验重复进行100次,取平

    计算机研究与发展 2019年8期2019-07-30

  • R语言在统计学教学中的运用
    agging训练集上的NMSE为:", mean((wsamp3$MEDV-as.numeric(baggingtrain))^2)/mean((mean(wsamp3$MEDV)- wsamp3$MEDV)^2)," ")#Bagging训练集上的NMSE为: 0.132 848 2cat("Bagging测试集上的NMSE为:", mean((wtsamp3$MEDV-as.numeric(baggingpre))^2)/mean((mean(wtsa

    唐山师范学院学报 2018年6期2018-12-25

  • 关于正测度集上无界发散的Fourier级数
    情形,探索正测度集上几乎处处无界的Fourier级数存在性,丰富Fourier级数收敛性的相关研究.在后续讨论中,用L(E)表示E上的Lebesgue可积函数空间,U(x,δ)表示以x为心、δ为半径的开区间,表示集合E的闭包,m(E)表示集合E的Lebesgue测度,O(α)表示与α的同阶无穷大,其中α→∞.引理[1](Riemann-Lebesgue)设 f(x)∈L[a,b],则:定理 设E是有界闭集,且mE>0,则存在函数f∈L(E),使得f的Fou

    韶关学院学报 2018年9期2018-10-31

  • BN-cluster:基于批归一化的集成算法实例分析
    在LFW人脸数据集上得到97%的识别率。然而在卷积神经网络训练过程中,每层输入数据的分布随上一层的参数变化而发生变化,每次调整网络时要使每一层去适应输入的分布变化。这会导致神经网络很难训练得到一组性能最优的参数。在网络初始化时仔细地调整参数和降低训练过程中使用的学习率可以在一定程度上降低这种由分布变化带来的影响,但同时也会降低网络的训练速度。在传统的深度网络中,学习率太高可能会导致梯度爆炸或消失,以及陷入局部最小值的问题。通过归一化整个网络中的激活,可以防

    沈阳航空航天大学学报 2018年3期2018-07-30

  • 复杂高维数据中异常点挖掘算法研究*
    性算法在8个数据集上进行测试比较,这些算法包括基于统计的方法GUMM[29]、k近邻相关算法(kNN,kNNW,ODIN,LOF,FASTABOD,LoOP)、基于子空间的方法(COP,SOD)和基于集成的算法(HiCS).本实验采用的数据集来源于UCI数据集,异常点的预处理采用文献[30]的方法.表1列出了实验中使用的数据集,每个数据集包括数据集名称、数据大小、异常点的个数、属性值及异常点的类别.例如,SpamBase数据集中包含4 601个数据,其中异

    浙江师范大学学报(自然科学版) 2018年2期2018-06-01

  • 有限偏序集上的强滤子及其应用
    000)有限偏序集上的强滤子及其应用刘志禹, 姜广浩, 唐照勇(淮北师范大学数学科学学院,安徽淮北 235000)本文在偏序集上引入强滤子的概念,并在有限偏序集上探讨强滤子与(非)连通偏序集之间的关系.强集; 强滤子; 不交并偏序集; (非)连通偏序集1 引言与预备知识唐照勇等在文献[5]中给出了另一种等价的数学语言来刻画有限偏序集的连通性,进而将有限偏序集分为连通和非连通两种类型, 并在有限偏序集上探讨了强理想与(非)连通偏序集之间的关系. 受此启发,

    洛阳师范学院学报 2017年11期2017-12-22

  • 基于MWST+T-K2结构学习算法的贝叶斯分类器
    类器在24个数据集上的分类水平进行整体与两两比较时,MWST+T- K2分类器的分类水平均最优;在小数据集上比较时,MWST+T- K2分类器的分类水平取得全局最优,未取得局部最优;在大数据集上比较时,未取得全局或局部最优,低于TANC的分类水平.所以,MWST+T- K2结构学习算法是一种适合构建小数据集贝叶斯分类器的方法.贝叶斯网络; 贝叶斯分类器; MWST+T- K2算法; 分类检验将贝叶斯网络(Bayesian network)[1]中代表类别的

    复旦学报(自然科学版) 2017年1期2017-10-13

  • 偏序集上的局部极大滤子
    35000)偏序集上的局部极大滤子王逸芬,卢涛 (淮北师范大学 数学科学学院,安徽 淮北 235000)在偏序集上引入局部极大滤子的概念,讨论局部极大滤子在格、分配格、Heyting代数、Boole代数中的相关性质,得到一些等价条件,进一步地丰富偏序集的内容.偏序集;极大滤子;局部极大滤子0 引言滤子作为偏序集上的一个特殊的集合,同时也具有很多好的性质,对滤子的研究也一直没有间断过.本文受文献[1-2]启发,引入偏序集上的局部极大滤子的概念,并在格、分配格

    淮北师范大学学报(自然科学版) 2017年2期2017-06-05

  • 区间集上非交换剩余格的广义模糊布尔滤子
    概念,给出了区间集上非交换剩余格广义模糊布尔滤子的等价性刻画及其特征性质。1 预备知识定义 1[18]设<I(2U),∪,∩,⊗,⇒,→,μ,Ø>是一个(2,2,2,2,2,0,0)型代数,若满足以下条件:1)<I(2U)∪,∩,μ,Ø>是一个有界格;2) <I(2U)⊗,μ,Ø>是 μ 以为单位元的半群;3) ∀X,Y,Z∈I(2U),X⊗Y⊆Z 当且仅当 X⊆Y⇒Z当且仅当Y⊆X→Z,则称I(2U)为区间集上非交换剩余格。性质1[18]设I(2U)是一

    商洛学院学报 2017年6期2017-05-11

  • 基于多样化top-k shapelets转换的时间序列分类方法
    在所有15个数据集上均有计算效率的提升,最少加速了1.09倍,最高可达到287.8倍。时间序列分类;shapelets;多样化top-k0 引言Shapelets 是描述时间序列局部特征的子序列,是时间序列中一种微小的局部模式,具有高度的辨识性[1]。基于shapelets的时间序列分类方法,能够发现时间序列之间具有微小区别的局部特征,不仅分类精度高,对分类的结果也有很好的解释能力,已经成为时间序列领域一个重要的研究主题,受到了越来越多的关注[2-5],并

    计算机应用 2017年2期2017-04-20

  • Cantor四分集上的变换及其遍历测度
    Cantor四分集上的变换及其遍历测度王 芬1*, 张晓艳2(1.湖北第二师范学院 数学与经济学院, 武汉 430205; 2.华中师范大学 数学与统计学学院, 武汉 430079)该文给出了Tα(x)=αx(mod 1)(α∈R+)是Cantor四分集T(4,{0,2})上的变换的充要条件:Tα为T(4,{0,2})上的变换当且仅当α=4n(n∈Z).并且研究了Tα的遍历测度的存在性.Cantor四分集; 不变测度; 遍历测度1研究背景Cantor集是数

    华中师范大学学报(自然科学版) 2017年2期2017-02-24

  • 不平衡类分类问题的逻辑判别式算法
    进而在平衡的数据集上学习模型,如过抽样、欠抽样以及SMOTE等[5-6].这些技术经常应用于处理不平衡类分类问题中,但是数据分布总是千差万别,很难确定数据的实际分布情况.后者通过调整算法或目标函数使得学习到的模型更倾向于正确分类少数类实例,如两阶段规则学习方法[7]、代价敏感方法[8-9]、one-class方法[10]等.与以上所提方法不同,本文将逻辑判别式应用于不平衡类问题.与传统逻辑判别式不同,本文同时使用似然函数和召回率构建新的目标函数LERM(L

    信阳师范学院学报(自然科学版) 2016年2期2016-08-09

  • 区间集上R0-代数的表示形式及其性质*
    造性地给出了区间集上R0-代数的表示形式,同时证明了区间集上R0-代数定义表示形式的可行性与合理性,最后讨论了其有趣的基本性质.1 基本概念定义1[9-12]设A=[Al,Au]是一个区间集,其中Al,Au是任意经典集合且Al⊆Au.区间集是用上、下界集合对来表示,且其定义如下:设U为论域,2U是U的幂集,那么区间集上2U的子集形式为A=[Al,Au]={A∈2U|Al⊆A⊆Au},称其为一个闭区间集.闭区间上的所有区间集的集合记为 I(2U)={[Al,

    重庆工商大学学报(自然科学版) 2014年9期2014-11-02

  • 一种基于置换的组合分类器剪枝方法
    算法在相应的实例集上准确率最高。为了清晰,表2省略了算法在相应实例集上的标准差。作为参照,表2给出了bagging(分类器库)的准确率。表1 24个实例集的具体信息描述由表2可知:(1)EPR-CG可以大幅度降低组合分类器的规模,并能有效地提高原组合分类器性能(本实验有20个实例集显著提高了组合分类器的准确率);(2)相比于其他指标,CG更适合监督EPR剪枝的过程。具体地,EPR-CG在绝大部分实例集上较高的准确率数为14个,其他依次是EPR-IC 5个、

    中原工学院学报 2014年4期2014-04-01

  • 一种增量发现条件函数依赖的算法*
    赖。例如,当数据集上增加一个新数据时,已有的方法必须将新增数据集与原始数据集进行合并,再对合并后的整个数据集重新执行发现过程,才能更新CFDs,但这将导致大部分时间都浪费在对已处理数据集的重复计算上。针对条件函数依赖的更新问题,本文借鉴增量更新思想提出一种增量更新条件函数依赖的方法,并在条件函数依赖的发现方法[11](简称CFINDER算法)的基础上实现了条件函数依赖增量更新算法CFUP。当数据集上增加一批新的数据时,CFUP算法通过扫描新增数据集,来判定

    计算机工程与科学 2013年8期2013-09-05

  • 排序学习中数据噪音敏感度分析
    等算法在一些数据集上具有较好抗噪性,随着噪音水平的增加性能下降不大,而在另外一些数据集上即使噪音水平很小性能也有很大程度的下降。从数据角度出发,这种现象可以理解为数据具有不同的噪音敏感度。本文从Pairwise方法和Listwise方法的两个具体的学习场景出发,重点研究导致数据具有不同的噪音敏感度的潜在原因,并希望能够依据实验得到的结论,指导训练集的构建。2 相关工作现有关于排序学习的工作大部分关注新算法的提出。由于训练集中噪音是不可避免的,因此对于算法抗

    中文信息学报 2012年5期2012-06-29