湖北工业大学 杨小钦
支持向量机参数优化研究
湖北工业大学 杨小钦
基于统计学习理论的支持向量机作为数据挖掘中的新技术,开发了一个极好的机器学习方法。它被认为是机器学习领域非常受欢迎的和成功的例子。支持向量机应用到实际问题时,首先面临的模型参数,包括支持向量机和核参数的选择。参数的选择直接决定了训练支持向量机的效率和效果,如何选择参数是支持向量机的主要问题。本文介绍的支持向量机参数优化和粒子群优化算法的关键知识,支持向量机的性能是很大程度上取决于参数设置,包括的惩罚参数和核函数参数,如何选择支持向量机的关键参数问题。
向量机参数;优化;研究
21世纪是一个“信息爆炸”,大量的信息和数据的增长,机器学习困难急剧增加的时代。机器学习(学习机,ML)是人工智能(人工智能,AI)最聪明的功能,最尖端的研究领域之一。是机器学习的主要障碍和人工智能研究的发展方向之一。包括计算的理论学习和学习系统的建设。AI系统有没有或只有非常有限的学习能力。在进入系统手工编程系统的知识,知识的错误不能自动得到纠正。换句话说,大多数现有的人工智能,演绎,归纳推理,因此不能自动获取和创造知识。未来的计算机将自动获得直接从书本学习,通过与人交谈,学习,通过观察学习知识的能力。自我完善,通过实践来克服人们更少的存储效率低,注意力分散,这是很难传输所获得的知识,和其他限制。
支持向量机,Support Vector Machine[3],简称为SV机(本文一般是指SVM)。这是一个监督的学习方法,广泛应用于统计分类和回归分析。支持向量机的广义线性分类。他们也可以认为是卡尔纳蒂克爱标准化(吉洪诺夫,正规化)方法的一个特例。他们可以最大限度地减少经验的错误,并最大限度地提高该地区的几何边缘。因此,支持向量机,又称作为世界上最大的边缘区分类。支持向量机将向量映射到高维空间,以及建立在此空间的最大间隔超平面。有2个相互平行的超平面分开的超平面两侧的数据。由超平面分开的2个平行的超平面的距离最大化。总误差越小假设的距离或平行的超平面分类之间的差距更大。范德沃尔特和巴纳德,支持向量机分类器进行了比较。我们通常希望分类的过程是一个机器学习的过程。这些数据点不需要点是一个任意点(统计学符号),或在计算机科学(符号)。
支持向量机是在统计学习理论的基础上,基于结构风险最小化的原则,一个新的机器学习算法,它将最大限度地提高基于核相结合的思路和方法的时间间隔,显示出良好的反老化性能。SVM在应用程序中,仍存在一些问题,典型的问题是模型参数的选择。Vapnik等人的研究,不同的内核函数的SVM性能,但核函数核参数和惩罚参数是影响SVM性能的一个关键因素。本文认为对SVM分类性能参数不同性质的影响,即建立核参数和惩罚参数变量的优化问题,利用遗传算法的优化问题,最后确定SVM参数的最佳值,数值实验验证改进方法的有效性。
鸟类捕食过程中,每只鸟找到食物最简单和最有效的方法是搜索周边地区的距离食物的鸟。Kennedy和Eberhart通过对鸟类捕食过程中的分析和模拟,在1995年最先提出了原始的PSO算法。与遗传算法相比,PSO算法概念简单,计算快速,易于实现,并没有太多的参数需要调整的优势。因为这些诸多优点的算法之一,已引起了广大学者的关注,不断涌现出的各种信息的PSO算法的应用研究,有力地推动了PSO算法的研究成果。许多研究者的参数集,收敛,拓扑结构,传统的PSO算法和其他算法,集成的角度来看,各种改善其不足之处,为了提高算法的性能。
本文介绍的支持向量机参数优化和粒子群优化算法的关键知识,支持向量机的性能是很大程度上取决于参数设置,包括的惩罚参数和核函数参数,如何选择支持向量机的关键参数问题。支持向量机参数优化问题,主要是提出了一种基于遗传算法的参数优化方法,其主要内容概括如下:
首先,为支持向量机模型,用来形容加上或减去2个样品给定的数据类型设置,以便建立一个变量约束的优化问题的核参数之间的分离,分离指标定义。
然后将参数代入到支持向量机、分拣机,建立与惩罚参数变量的约束优化问题的泛化性能起将被替换成核参数的最佳值。
最后得到粒子群优化算法搜索优化问题的最佳解决方案。验证的方法和网格方法的比较实验的有效性。支持向量机参数优化方法的实验分析。
[1]Peter J.Angeline.Using selection to improve particle swarm optimization.In Proceedings of the 1998 IEEE Congress on Evolutionary Computation,pages 84–89,Piscataway,NJ,USA,1998.IEEE Press.
[2]Tim M.Blackwell and Peter J.Bentley.Don′t push me collision-avoiding swarms.In Proceedings of the 2002 IEEE Congress on Evolutionary Computation,pages 1691–1696,Piscataway,NJ,USA,2002.IEEEPress.
[3]Maurice Clerc and James Kennedy.The particle swarm–explosion,stability,and convergence in a multidimensional complex space.IEEE Transactions on Evolutionary Computation,6(1):58–73,2002.
[4]HolgerH.Hoos and Thomas Stützle.Stochastic Local Search:Foundations and Applications.Morgan Kaufmann,San Francisco,CA,USA,2004.
2017-09-10)