薛贞霞
- 作品数:24 被引量:76H指数:5
- 供职机构:河南科技大学数学与统计学院更多>>
- 发文基金:国家自然科学基金河南省科技计划项目河南省自然科学基金更多>>
- 相关领域:自动化与计算机技术理学农业科学更多>>
- 数学规划在粗汽油干点软测量中的应用
- 2010年
- 以催化裂化粗汽油干点为研究对象,讨论了数学规划方法里的回归分析方法用于粗汽油干点软测量的数学建模,在此基础上开发了粗汽油干点软测量组合模型,给出了该模型的实施步骤。利用MATLAB语言编程实现模型算法,并用C++BUILDER编主程序及界面。在工业装置上投入运行,精度较高,显示了该方法的有效性,在先进的工业过程控制上具有广泛的应用前景。
- 薛贞霞白秀琴
- 关键词:数学规划软测量干点
- 基于球边界的不平衡数据分类方法被引量:1
- 2008年
- 现有分类算法对不平衡数据挖掘通常表现出有偏性,即正类样本(通常是更重要的一类)的分类和预测性能差于负类样本的分类和预测性能,为此提出一种不平衡数据的分类方法。该方法对不同类引入不同的惩罚参数来灵活控制两类错分率的上界,通过一个超球面将两类数据以最大分离比率分离,从而提高不平衡数据对正类分类和预测的性能。实验结果表明,该方法可以有效提高不平衡数据的分类性能。
- 雷治军张素玲薛贞霞
- 关键词:不平衡数据超球面
- 一种分离超平面的确定方法被引量:1
- 2007年
- 针对两类分类问题中使用支持向量机(Support Vector Machines,SVM)训练时间长和支持向量域分类器(Support Vector Domain Classifier,SVDC)精度不高的问题,建立一种基于支持向量域描述(Support Vector Domain Description,SVDD)的分离超平面,尝试将SVDD与SVM结合.首先使两类的错误率上界相等,用来设定参数C1,C2的值;然后分别对每类样本应用SVDD算法进行描述,以求取两个超球形边界向量;最后以两个超球球心到分离超平面的距离和最大为准则,推导出两球球心之差为分离超平面的法向量,再用样本容量和两球半径所提供的信息,确定出分离超平面的阈值,建立一个分离超平面.实验数据表明:提出的算法与SVDC相比,分类的错分率显著减少;与标准的SVM相比,不仅错分率有所减少,而且训练时间也减少很多.
- 刘万里刘三阳薛贞霞
- 关键词:支持向量域描述分离超平面支持向量机
- 基于可信度的渐进直推式支持向量机算法被引量:2
- 2008年
- 针对渐进直推式支持向量机(Progressive transductive support vector machines,PTSVM)算法回溯式学习多,训练速度慢,学习性能不稳定的问题,提出一种基于可信度的渐进直推式支持向量机算法.该算法首先基于支持向量域描述(Support vector domain description,SVDD)对无标签样本点赋予一定的可信度,根据可信度选择新标注的无标签的样本点;其次利用支持向量预选取方法减少训练集的规模,对当前所有有标签的样本点用支持向量机(Support vector ma-chines,SVM)训练,最后重复上述过程从而求出最终的分类超平面.实验结果表明,与PTSVM相比,该算法不仅能较大幅度的提高算法的速度,更重要的是在一般情况下能提高算法的精度.
- 薛贞霞刘三阳刘万里
- 关键词:半监督学习支持向量机直推式学习支持向量域描述
- 基于一个球的模式分类方法的改进
- 2008年
- 针对一个球的模式分类(Single Sphere Pattern Classification(SSPC))方法中选取参数C比较困难的问题,提出一种改进的分类方法υ-SSPC.这种方法通过引入一个具有明确物理意义的参数υ,即υ是间隔错误样本占所总样本点的分额的上界,是支持向量的个数所占总样本点数的分额的下界,使参数可以灵活地根据实际问题的精度要求来选取.从而可以快速选取最有效的参数,提高分类预测的精度.
- 郭烨李永新薛贞霞
- 关键词:参数选取超球面
- 支持向量机及半监督学习中若干问题的研究
- 随着信息技术的飞速发展,在信息收集和处理的过程中,人们面临的各种数据信息规模越来越大,构成也越来越复杂,这使得机器学习日益受到人们的关注,成为目前研究的热点问题之一.由Vapnik提出的统计学习理论为机器学习问题提供了理...
- 薛贞霞
- 关键词:统计学习理论支持向量机半监督学习
- 文献传递
- 基于类权重的模糊不平衡数据分类方法被引量:1
- 2008年
- 针对现有分类算法通常对不平衡数据挖掘表现出有偏性,即正类样本(通常是更重要的一类)的分类和预测性能差于负类样本的分类和预测性能,提出一种不平衡数据分类方法。该方法通过一个超球面将两类数据以最大分离比率分离,并且引入类权重因子和样本模糊隶属度,同时考虑了不同类的重要性和不同样本对该类的不同贡献,从而提高了不平衡数据中正类的分类和预测的性能以及整体的推广能力。分别在人造数据和UCI真实数据上进行了实验,结果验证了该方法的有效性。
- 薛贞霞张素玲刘三阳
- 关键词:不平衡数据
- 基于超球结构的渐进直推式支持向量机被引量:2
- 2008年
- 针对渐进直推式支持向量机(Progressive Transductive Support Vector Machines,PTSVM)算法训练速度慢,学习性能不稳定的问题,提出一种基于超球结构的渐进直推式支持向量机算法。该算法首先利用支持向量域描述(Support Vector Domain Descrip-tion,SVDD)得到包含每个类别的有标签样本点的最小包球,选择这个包球边界附近的无标签样本点进行标注,然后对目前所有有标签的样本点进行SVM训练。实验结果表明该算法不仅能保持甚至提高算法的精度,更重要的是能大大提高训练速度。
- 李丽蓉牛惠芳薛贞霞
- 关键词:半监督学习支持向量机直推式学习
- 基于马氏椭球学习机的监督野点探测被引量:3
- 2009年
- 针对有少量野点出现的情况,提出一种基于马氏椭球学习机的监督野点探测(supervised outlier detection based on Mahalanobis ellipsoidal learning machine,SODMELM)方法。这种方法通过一个超椭球对正常类进行较好的描述的同时,将野点排除在该椭球外面,继承了马氏椭球学习机(Mahalanobis Ellipsoidal Learning Machine,MELM)将样本点的协方差矩阵即样本点的分布信息考虑进去的优点。真实数据上的实验表明了所提的方法在一般意义上能提高野点探测的效率。
- 李建民李永新薛贞霞
- 基于壳向量和中心向量的支持向量机被引量:3
- 2009年
- 针对支持向量机(Support vector machines,SVMs)中大规模样本集训练速度慢且分类精度易受野点影响的问题,提出一个基于样本几何信息的支持向量机算法。其基本步骤是,首先分别求取每类样本点的壳向量和中心向量,然后将求出的壳向量作为新的训练集进行标准的SVM训练得到超平面的法向量,最后利用中心向量来更新法向量从而减少野点的影响得到最终的分类嚣。实验表明,采用这种学习策略,不仅加快了训练速度,而且在一般情况下也提高了分类精度。
- 薛贞霞刘三阳齐小刚
- 关键词:支持向量机大规模训练集