您现在的位置: 首页> 研究主题> 行人再识别

行人再识别

行人再识别的相关文献在2014年到2022年内共计221篇,主要集中在自动化技术、计算机技术、无线电电子学、电信技术、军事技术 等领域,其中期刊论文168篇、专利文献266935篇;相关期刊89种,包括图学学报、中国图象图形学报、电子与信息学报等; 行人再识别的相关文献由532位作者贡献,包括齐美彬、李邵梅、蒋建国等。

行人再识别—发文量

期刊论文>

论文:168 占比:0.06%

专利文献>

论文:266935 占比:99.94%

总计:267103篇

行人再识别—发文趋势图

行人再识别

-研究学者

  • 齐美彬
  • 李邵梅
  • 蒋建国
  • 陈莹
  • 陈鸿昶
  • 张荣
  • 孙昊
  • 赖剑煌
  • 陈雷
  • 丁二锐
  • 期刊论文
  • 专利文献

搜索

排序:

年份

    • 李杰
    • 摘要: 针对现有行人再识别算法在处理图像分辨率低、光照差异、姿态和视角多样等情况时,准确率低的问题,提出了基于空间注意力和纹理特征增强的多任务行人再识别算法。算法设计的空间注意力模块更注重与行人属性相关的潜在图像区域,融入属性识别网络,实现属性特征的挖掘;提出的行人再识别网络的纹理特征增强模块通过融合不同空间级别所对应的全局和局部特征,减弱了光照、遮挡等对行人再识别的干扰;最后通过多任务加权损失函数将属性特征和行人特征巧妙融合,避免了由属性异质性造成的再识别精度损失。实验结果表明,该方法在Market-1501和DukeMTMC-reID两大主流行人再识别数据集上的平均精度分别可以达到81.1%和70.1%。
    • 孙义博; 王蓉
    • 摘要: 为增强遮挡场景下所提取行人特征的判别力,有效挖掘样本类别信息,提出了一种基于特征关联和多损失融合的行人再识别方法。首先利用姿态估计器生成的人体关键点作为辅助信息,引导模型关注行人图像未被遮挡区域,提取姿态引导的全局特征;其次引入全局对比池化模块,将平均池化和最大池化的特性进行融合,提取对背景噪声和遮挡抗干扰性更强的全局特征;然后引入One-vs-rest关系模块,挖掘局部分块特征的内在关系,提取能够反映图像整体信息的局部特征;最后将交叉熵损失、难样本采样三元组损失和中心损失这3种损失函数进行加权融合,监督模型学习类间距离大、类内距离小的行人特征。在Occluded-DukeMTMC数据集进行的评估结果表明,所提算法Rank-1和mAP分别达到54.9%和41.5%,充分体现了改进后方法在处理行人再识别遮挡问题时的有效性和先进性。
    • 钱锦浩; 宋展仁; 郭春超; 赖剑煌; 谢晓华
    • 摘要: 基于视频图像的视觉行人再识别是指利用计算机视觉技术关联非重叠域摄像头网络下的相同行人,在视频安防和商业客流分析中具有重要应用.目前视觉行人再识别技术已经取得了相当不错的进展,但依旧面临很多挑战,比如摄像机的拍摄视角不同、遮挡现象和光照变化等所导致的行人表观变化和匹配不准确问题.为了克服单纯视觉匹配困难问题,本文提出一种结合行人表观特征跟行人时空共现模式的行人再识别方法.所提方法利用目标行人的邻域行人分布信息来辅助行人相似度计算,有效地利用时空上下文信息来加强视觉行人再识别.在行人再识别两个权威公开数据集Market-1501和DukeMTMC-ReID上的实验验证了所提方法的有效性.
    • 唐佳敏; 韩华; 黄丽
    • 摘要: 行人再识别研究中存在特征判别信息不够丰富的情况,并且遮挡、光照等因素会干扰有效特征的准确提取,对后续相似性度量、度量结果排序等工作都有较大影响。此外,监督学习需要使用标签信息,在面对大型数据集时工作量很大。通过引入无监督学习框架,提出一种粗细粒度判别性特征提取方法。构建基于细粒度和粗粒度特征学习的模型框架,其中包含局部和全局2个分支。在局部分支中,对图像学习到的特征映射提取补丁块,并在未标记数据集上学习不同位置的细粒度补丁特征;在全局分支中,使用无标注数据集的相似度和多样性作为信息来学习粗粒度特征。在此基础上,利用相吸和相斥2个损失函数分别增加类别内相似度和类别间多样性,并结合最小距离准则计算特征之间的相似度,进行无监督的聚类合并。在Market-1501和DukeMTMC-reID数据集上的实验结果表明,该方法对于完成行人再识别任务具有较好的判别性能和鲁棒性,相比所有对比方法的最优结果,其Rank-1指标分别提高5.76%和5.07%,平均精度均值分别提高3.2%和5.6%。
    • 梁文琦; 王广聪; 赖剑煌
    • 摘要: 无监督跨域迁移学习是行人再识别中一个非常重要的任务.给定一个有标注的源域和一个没有标注的目标域,无监督跨域迁移的关键点在于尽可能地把源域的知识迁移到目标域.然而,目前的跨域迁移方法忽略了域内各视角分布的差异性,导致迁移效果不好.针对这个缺陷,本文提出了一个基于多视角的非对称跨域迁移学习的新问题.为了实现这种非对称跨域迁移,提出了一种基于多对多生成对抗网络(Many-to-many generative adversarial network,M2M-GAN)的迁移方法.该方法嵌入了指定的源域视角标记和目标域视角标记作为引导信息,并增加了视角分类器用于鉴别不同的视角分布,从而使模型能自动针对不同的源域视角和目标域视角组合采取不同的迁移方式.在行人再识别基准数据集Market1501、DukeMTMC-reID和MSMT17上,实验验证了本文的方法能有效提升迁移效果,达到更高的无监督跨域行人再识别准确率.
    • 周东明; 张灿龙; 唐艳平; 李志欣
    • 摘要: 受行人姿态变化、光照视角、背景变换等因素的影响,现有行人再识别模型通常对数据集中的行人分成若干块提取图像的局部特征进行辨识以提高识别精度,但存在人体局部特征不匹配、容易丢失非人体部件的上下文线索等问题。构建一种改进的行人再识别模型,通过将人体语义解析网络的局部特征进行对齐,增强行人语义分割模型对图像中行人任意轮廓的建模能力,利用局部注意力网络捕捉非人体部分丢失的语境线索。实验结果表明,该模型在Market-1501、DukeMTMC和CUHK03数据集上的平均精度均值分别达到83.5%、80.8%和92.4%,在DukeMTMC数据集上的Rank-1为90.2%,相比基于注意力机制、行人语义解析和局部对齐网络的行人再识别模型具有更强的鲁棒性和迁移性。
    • 周炉; 谢明鸿; 李华锋; 谭婷婷
    • 摘要: 在行人再识别中,由相机风格及视角变化造成的行人外观差异严重影响了模型的性能.为缓解该现象,提出一种判别性信息增强的行人再识别方法.该方法由辅助子网络、主干子网络以及时空信息嵌入三部分构成.首先,在辅助子网络中实现不同视角行人图像的风格转换以减少风格差异对性能的影响.为增强特征的判别性,将原图特征和迁移图像特征进行拼接.此外,在主干子网络中通过局部特征迫使主干子网络在关注全局特征的同时,能更多利用局部具有鉴别性的信息.最后,引入行人的时空信息来缓解难样本对识别性能造成的影响.通过实验证明所提算法性能优于大部分主流方法,消融实验也验证了所提算法的有效性.
    • 王霄; 李海芳; 王庆生
    • 摘要: 行人再识别是计算机视觉领域的一项重要任务,但大多数现有模型很大程度上依赖于颜色外观。针对目前很少研究解决目标人物衣服不一致的行人再识别问题,提出一种新的表征学习模型。该模型通过对抗性学习和特征分离来产生不受服装颜色或图案影响的体型特征表示。同时,由于缺乏包含同一个人服装变化的行人再识别数据集,创建了一个合成数据集来模拟服装变化。4个数据集(两个基准行人再识别数据集,一个跨模态行人再识别数据集,合成数据集)的定量和定性结果证实了该方法对几种最先进的方法的鲁棒性和优越性。
    • 仇天昊; 陈淑荣
    • 摘要: 针对视频图像中因小目标行人、遮挡和行人姿态多变而造成的行人再识别率低的问题,建立了一种基于高效网络EfficientNet的双分路多尺度联合学习方法。首先采用性能高效的EfficientNet-B1网络作为主干结构;然后利用加权双向特征金字塔(BiFPN)分支对提取的不同尺度全局特征进行融合,并且得到包含不同层次语义信息的全局特征,从而提高小目标行人的识别率;其次利用PCB分支提取深层局部特征来挖掘行人的非显著信息,并减轻行人遮挡和姿态多变性对识别率的影响;最后在训练阶段将两个分支网络分别提取的行人特征通过Softmax损失函数得到不同子损失,并把它们相加进行联合表示;在测试阶段将获得的全局特征和深层局部特征拼接融合,并计算欧氏距离得到再识别匹配结果。该方法在Market1501和DukeMTMC-Reid数据集上的Rank-1的准确率分别达到了95.1%和89.1%,与原始EfficientNet-B1主干结构相比分别提高了3.9个百分点和2.3个百分点。实验结果表明,所提出的模型有效提高了行人再识别的准确率。
    • 张师林; 郭红南; 刘轩
    • 摘要: 为了解决行人再识别以及车辆再识别算法中网络训练过程对计算资源的消耗过大且准确率较低的问题,提出基于能量模型的目标分类和度量学习方法.利用样本特征空间中同类样本的低能量分布特性,设计对比能量损失函数,形式上表达为训练样本在真实目标类别上的损失函数响应和非目标类别上的响应之差,可以更准确地增大目标响应,抑制非目标响应,提高了分类准确率,使得同类样本特征更聚集、异类样本特征更远离.在多个行人再识别和车辆再识别数据集上的测试结果显示,相对于Soft-max和Triplet混合损失函数,利用能量模型可以提升网络训练效率,提高目标再识别准确率.
  • 查看更多

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号