周全
- 作品数:12 被引量:15H指数:2
- 供职机构:南京邮电大学通信与信息工程学院更多>>
- 发文基金:国家自然科学基金江苏省自然科学基金中央高校基本科研业务费专项资金更多>>
- 相关领域:自动化与计算机技术文化科学航空宇航科学技术更多>>
- FMA-DETR:一种无编码器的Transformer目标检测方法
- 2024年
- DETR是第一个将Transformer应用于目标检测的视觉模型。在DETR结构中,Transformer编码器对已高度编码的图像特征进行再编码,这在一定程度上导致了网络功能的重复。此外,由于Transformer编码器具有多层深度堆叠的结构和巨大的参数量,导致网络优化变得困难,模型收敛速度缓慢。本文设计了一种无编码器的Transformer目标检测网络模型。由于不需要引入Transformer编码器,本文的模型比DETR参数量更小、计算量更低、模型收敛速度更快。但是,直接去除Transformer编码器将降低网络的表达能力,导致Transformer解码器无法从数量庞大的图像特征中关注到包含目标的图像特征,从而使检测性能大幅降低。为了缓解这个问题,本文提出了一种混合特征注意力(fusion-feature mixing attention,FMA)机制,它通过自适应特征混合和通道交叉注意力弥补检测网络特征表达能力的下降,将其应用于Transformer解码器可以减轻由于去除Transformer编码器带来的性能降低。在MS-COCO数据集上,本文网络模型(称为FMA-DETR)实现了与DETR相近的性能表现,同时本文的模型拥有更快的收敛速度、更小的参数量以及更低的计算量。本文还进行了大量消融实验来验证所提出方法的有效性。
- 周全倪英豪莫玉玮康彬张索非
- 关键词:目标检测TRANSFORMER编码器
- 基于行列信息门的表格结构识别网络被引量:2
- 2022年
- 目前基于深度学习的表格结构识别有2种主流方法:检测表格框线法和检测表格行与列法。在检测表格框线法中,表格框线所占像素数较少导致了正负样本失衡的问题。虽然检测表格行与列法避免了正负样本失衡的问题,但有的研究将行与列预测分别简化成一列与一行像素的预测,又造成了容错率大的问题。针对该问题,提出了2种信息传输模块:行信息门和列信息门。在模块内,通过特征切片和平铺来对行或列进行软预测,解决了简化行与列预测产生的大容错率问题;通过计算通道注意力进一步提取行或列信息;使用行信息门与列信息门搭建了一个语义分割模型,同时完成表格行分割与列分割。在ICDAR 2013数据集上构建表格的行与列掩模并对模型评估,验证结果表明,与基于检测表格行与列法的分割模型相比,提出的模型有更好的性能,平均查准率、查全率和F1值分别高出0.55%,2.78%和1.48%。
- 包云超周全孔令军王茜雯
- 基于深度学习的弱监督语义分割方法综述被引量:1
- 2024年
- 语义分割是计算机视觉领域的基本任务,旨在为每个像素分配语义类别标签,实现对图像的像素级理解。得益于深度学习的发展,基于深度学习的全监督语义分割方法取得了巨大进展。然而,这些方法往往需要大量带有像素级标注的训练数据,标注成本巨大,限制了其在诸如自动驾驶、医学图像分析以及工业控制等实际场景中的应用。为了降低数据的标注成本并进一步拓宽语义分割的应用场景,研究者们越来越关注基于深度学习的弱监督语义分割方法,希望通过诸如图像级标注、最小包围盒标注、线标注和点标注等弱标注信息实现图像的像素级分割预测。首先对语义分割任务进行了简要介绍,并分析了全监督语义分割所面临的困境,从而引出弱监督语义分割。然后,介绍了相关数据集和评估指标。接着,根据弱标注的类型和受关注程度,从图像级标注、其他弱标注以及大模型辅助这3个方面回顾和讨论了弱监督语义分割的研究进展。其中,第2类弱监督语义分割方法包括基于最小包围盒、线和点标注的弱监督语义分割。最后,分析了弱监督语义分割领域存在的问题与挑战,并就其未来可能的研究方向提出建议,旨在进一步推动弱监督语义分割领域研究的发展。
- 项伟康周全崔景程莫智懿莫智懿吴晓富王井东刘文予
- 基于空洞卷积鉴别器的语义分割迁移算法被引量:1
- 2020年
- 近年来,基于卷积神经网络的有监督图像语义分割方法的研究取得了巨大进展。针对该方法所依赖的手动标签繁琐、费时的问题,一种流行的解决方法是通过游戏视频来收集类似于真实场景的图像并自动生成标签,随后利用迁移学习将合成场景训练的模型迁移到真实场景。由于域偏移,简单地将合成场景(源域)上学习的模型应用到真实场景(目标域)一般会出现较高的泛化误差。针对该问题,提出一种新的图像语义分割的无监督迁移算法。该算法首先基于传统的图像风格转换网络对源域图像集进行风格转换预处理,使得图像风格能对齐于目标域,有效降低域间差异;然后,采用生成对抗训练实现源域与目标域特征的对齐。针对现有生成对抗训练中鉴别网络视野受限的问题,提出通过空洞卷积来设计鉴别网络,从而有效提升鉴别网络的分辨能力。在两个典型城市道路数据集GTA5以及SYNTHIA上的实验表明:相比于经典的AdaptSegNet算法,所提算法在GTA5数据集上的平均交并比(mIoU)提高了4.5%,在SYNTHIA数据集上的平均交并比提高了2.6%。
- 杨培健吴晓富张索非周全
- 多尺度格兰杰因果在行为分析中的应用被引量:1
- 2020年
- 考虑到复杂场景中的行为具有分级结构的特点,文中提出了一种基于多尺度格兰杰因果的行为分析算法框架。首先提取视频底层运动特征,并进行量化;然后基于概率主题模型对场景中的行为进行检测,实现多变量时间序列的提取;进一步基于状态空间模型对多变量时间序列进行表示;最后利用状态空间模型参数,实现行为间的格兰杰因果测量;通过实际的视频监控数据对所提算法框架的有效性和可行性进行了验证。实验结果表明:与固定尺度的行为分析算法相比,文中所提出的框架能够更有效地检测出行为间不同尺度的依赖关系。
- 樊亚文周全康彬
- 关键词:多变量时间序列状态空间模型
- 图像去模糊研究综述
- 2024年
- 图像模糊是指在图像捕捉或传输过程中,由于镜头或相机运动、光照条件等因素导致图像失去清晰度和细节,从而影响图像的质量和可用性。为了消除这种影响,图像去模糊技术应运而生。其目的在于通过构建计算机数学模型来衡量图像的模糊信息,从而自动预测去模糊后的清晰图像。图像去模糊算法的研究发展不仅为计算机视觉领域的其他任务提供了便利,同时也为生活领域提供了便捷和保障,如安全监控等。1)回顾了整个图像去模糊领域的发展历程,对盲图像去模糊和非盲图像去模糊中具有影响力的算法进行论述和分析。2)讨论了图像模糊的常见原因以及去模糊图像的质量评价方法。3)全面阐述了传统方法和基于深度学习方法的基本思想,并针对图像非盲去模糊和图像盲去模糊两方面的一些文献进行了综述。其中,基于深度学习的方法包括基于卷积神经网络、基于循环神经网络、基于生成式对抗网络和基于Transformer的方法等。4)简要介绍了图像去模糊领域的常用数据集并比较分析了一些代表性图像去模糊算法的性能。5)探讨了图像去模糊领域所面临的挑战,并对未来的研究方法进行了展望。
- 胡张颖周全陈明举崔景程吴晓富郑宝玉
- 关键词:图像去模糊TRANSFORMER
- “双一流”高校人工智能概论“金课”建设被引量:2
- 2022年
- 针对现阶段人工智能产业人才的迫切需求,分析目前“双一流”高校在人工智能导论“金课”建设的现状与不足,提出人工智能导论“金课”建设整体思路,从课程内容、教学方法、课程思政方面介绍“金课”建设实践,最后说明教学实施情况与学习效果。
- 周全
- 关键词:人工智能
- 基于条件随机场的遥感图像语义标注被引量:2
- 2015年
- 遥感图像包含的信息丰富,纹理复杂,而遥感图像语义标注又为后续的目标识别、检测、场景分析及高层语义的提取提供了重要信息和线索,这使其成为遥感图像理解领域中一个关键且极具挑战性的任务。首先针对遥感图像语义标注问题,提出采用条件随机场(CRF)框架对遥感图像的底层特征和上下文信息建模的方法,将Texton纹理特征与CRF中的自相关势能结合来捕捉遥感图像中的纹理信息及其上下文分布,采用组合Boosting算法进行Texton纹理特征选择和参数学习;然后将Lab空间中的颜色信息与CRF中的互相关势能结合来描述颜色上下文;最后用Graph Cut算法对CRF进行推导求解,得到图像自动语义标注结果。同时,建立了可见光遥感图像数据库Google-4,并对全部图像进行了人工标注。Google-4上的实验结果表明:采用CRF框架与Texton纹理特征和颜色特征相结合对遥感图像建模的方法与基于支持向量机(SVM)的方法相比较,能够取得更准确的语义标注结果。
- 杨俊俐姜志国周全张浩鹏史骏
- 关键词:遥感图像图像理解语义标注条件随机场上下文
- 基于注意力机制特征融合与增强的自然场景文本检测被引量:6
- 2022年
- 为了解决自然场景文本检测中由于文本实例分布随机、形态与尺度多样造成的检测难题,设计了一种基于注意力机制特征融合与增强的自然场景文本检测算法。利用注意力机制对有效特征提取的优势,在模型的解码融合阶段设计并引入了一种基于注意力的特征融合模块(Attention-based Feature Fusion Module, AFFM),利用空间和通道注意力分别为高层特征和低层特征引入更丰富的细节和全局信息,进一步提高了检测的准确率;设计了联合注意力特征增强模块(Joint Attention Feature Enhancement Module, JAM),利用卷积对级联后的特征在不同通道之间、空间位置间的联系建模,并生成联合特征权重mask对级联特征做加权,从而提高信息的表征能力,有效减少误检与漏检。在Total-Text和ICDAR2015两个数据集上对模型做评估,测试结果表明,该方法的F1综合指标分别达到了85.1%和87.6%,均优于当前主流算法。
- 陈静娴周全
- 基于中心-对角对比度的显著性检测
- 2017年
- 针对图像显著性检测中广泛运用的中心-四周对比度方法存在的缺陷,提出了中心-对角对比度(corner-surround contrast,CSC)算法,实现从背景中有效提取显著区域;中心-四周对比度方法难以保证分割的准确性,容易导致错误的显著检测结果,并且仅使用中心-四周对比度对目标物体进行显著性编码并不十分有效;CSC算法在提取中心和周边区域差异性的同时,结合它们之间位置的相对性,并设计了一个多核信息融合模型,以不同权重融合多种对比度方法以产生最优显著图,最后用图分割算法来进行二元分割,获得准确的显著图;实验结果表明CSC算法能够有效捕捉显著物体的局部差异,提高显著性物体定位及分割精度的性能,减少噪声的影响,从背景中分离出精确的显著性区域,获得更优的显著性检测结果。
- 张伟陈梦宇周全叶波沈琼霞