王婷婷
- 作品数:27 被引量:56H指数:3
- 供职机构:河北大学更多>>
- 发文基金:河北省自然科学基金国家自然科学基金河北省高等学校科学技术研究指导项目更多>>
- 相关领域:自动化与计算机技术艺术文化科学农业科学更多>>
- 基于粗糙集样例约简的支持向量机
- 支持向量机和粗糙集理论是当今人工智能和机器学习领域的研究热点。支持向量机以结构风险最小化原则为分类准则,利用靠近分类边界的支持向量构造最优分类超平面。对分类训练有贡献的只有支持向量,但是求解支持向量机却需要整个训练集,因...
- 王婷婷
- 关键词:粗糙集理论支持向量机算法结构风险最小化大型数据库
- 范例教学法在高中美术鉴赏课中的应用与实践
- 王婷婷
- 基于Spark的压缩近邻算法被引量:2
- 2018年
- K-近邻(K-Nearest Neighbors,K-NN)是一种懒惰学习算法,用K-NN对数据分类时,不需要训练分类模型。K-NN算法的优点是思想简单、易于实现;缺点是计算量大,原因是在对测试样例进行分类时,其需要计算测试样例与训练集中每一个训练样例之间的距离。压缩近邻算法(Condensed Nearest Neighbors,CNN)可以克服K-NN算法的不足。但是,在面对大数据集时,由于自身的迭代计算特性,CNN的运算效率会变得非常低。针对这一问题,提出一种名为Spark CNN的压缩近邻算法。在大数据环境下,与基于MapReduce的CNN算法相比,Spark CNN的效率大幅提高,在5个大数据集上的实验证明了这一结论。
- 张素芳翟俊海王婷婷郝璞王聪赵春玲
- 关键词:大数据迭代计算
- 多元智能理论指导下的农村小学英语作业设计研究
- 农村小学英语教学在作业设计方面存在各种各样的问题,诸如作业总量大,内容质量不高,不能面向全体学生,不能满足学生个体差异性,从而加重了学生的学习负担,不能调动学生学习英语的积极性。 本文笔者针对自己的教学与作业设计研究,...
- 王婷婷
- 关键词:小学英语多元智能理论
- 一种改进的样例约简支持向量机被引量:4
- 2013年
- 在以前工作的基础上,提出了一种改进的样例约简支持向量机,利用相容粗糙集方法求属性约简的边界域,并从中选择样例作为候选支持向量训练支持向量机.该方法的特点是可同时对属性和样例进行约简.实验结果证实了这种方法的有效性,能有效地减少存储空间和执行时间.
- 翟俊海王婷婷王熙照
- 关键词:相容粗糙集支持向量机最优分类超平面
- 我国电视新闻类主持人节目的审美研究
- 随着我国广播电视事业的飞速发展,特别是2003年5月中央电视台新闻频道的开播后,电视观众对于新闻类主持人节目给予了更广泛地关注。这一时期不仅创办了大量内容丰富、形式多样的新闻类节目,还涌现出一批具有较高素质的节目主持人。...
- 王婷婷
- 关键词:电视主持人新闻节目新闻审美接受美学
- 文献传递
- 基于Spark和SimHash的大数据K-近邻分类算法
- 在之前的工作中,提出了一种基于MapReduce和SimHash的大数据K-近邻算法(H-MR-K-NN).虽然该算法能够有效解决大数据K-近邻算法的计算效率问题,运行时间远远低于基于MapReduce的K-近邻(MR-...
- 张素芳王婷婷赵春玲翟俊海
- 关键词:K-近邻算法哈希算法
- MapReduce并行化压缩近邻算法被引量:1
- 2017年
- 压缩近邻(CNN:Condensed Nearest Neighbors)是Hart针对K-近邻(K-NN:K-Nearest Neighbors)提出的样例选择算法,目的是为了降低K-NN算法的内存需求和计算负担.但在最坏情况下,CNN算法的计算时间复杂度为O(n3),n为训练集中包含的样例数.当CNN算法应用于大数据环境时,高计算时间复杂度会成为其应用的瓶颈.针对这一问题,本文提出了基于MapReduce并行化压缩近邻算法.在Hadoop环境下,编程实现了并行化的CNN,并与原始的CNN算法在6个数据集上进行了实验比较.实验结果显示,本文提出的算法是行之有效的,能解决上述问题.
- 翟俊海郝璞王婷婷张明阳
- 关键词:K-近邻MAPREDUCE
- 乳腺癌体腔热循环灌注治疗的临床研究
- 目的:(1)比较不同时期(初诊胸腔积液或者是全身治疗失败后)进行胸腔热循环灌注的疗效。(2)比较贝伐珠单抗联合顺铂灌注胸腔热循环治疗组与单纯顺铂灌注胸腔热循环治疗组治疗乳腺癌胸腔积液的短期疗效、不良反应、远期疗效。(3)...
- 王婷婷
- 关键词:乳腺癌胸腔积液腹腔积液短期疗效
- 2种加速K-近邻方法的实验比较被引量:3
- 2016年
- K-近邻(K-NN:K-nearest neighbors)是著名的数据挖掘算法,应用非常广泛.K-NN思想简单,易于实现,其计算时间复杂度和空间复杂度都是O(n),n为训练集中包含的样例数.当训练集比较大时,特别是面对大数据集时,K-NN算法的效率会变得非常低,甚至不可行.本文用实验的方法比较了2种加速K-NN的方法,2种加速方法分别是压缩近邻(CNN:condensed nearest neighbor)方法和基于MapReduce的K-NN.具体地,在Hadoop环境下,用MapReduce编程实现了K-NN算法,并与CNN算法在8个数据集上进行了实验比较,得出了一些有价值的结论,对从事相关研究的人员具有一定的借鉴作用.
- 翟俊海王婷婷张明阳王耀达刘明明
- 关键词:K-近邻数据挖掘MAPREDUCEHADOOP