CORC  > 自动化研究所  > 中国科学院自动化研究所  > 毕业生  > 博士学位论文
题名跨分辨率行人重识别研究
作者韩苛
答辩日期2023-05-18
文献子类博士
关键词行人重识别 低分辨率 超分辨率 尺度因子 特征融合
英文摘要

行人重识别的目标是跨摄像头匹配同一个人在不同地点的图片。随着公共场所的视频监控越来越多,行人重识别在寻找嫌疑人、人员跟踪等方面展现出巨大的应用潜力,并且受到学术界和工业界的广泛关注。目前,标准的行人重识别研究通常假设所有行人图片都具有足够且相似的分辨率,然而这在真实场景中并不总是成立。由于行人和相机之间的距离无法控制,行人图片的分辨率可能存在很大差异,使得标准行人重识别模型出现严重的性能下降。为了解决这个问题,跨分辨率行人重识别研究被提出。该研究旨在克服图片分辨率差异提升行人重识别性能,对于推动行人重识别技术的实际应用具有重要的研究价值和意义。

 

一般地,登记在图片库的目标人物图片具有较高的分辨率,而监控摄像头拍摄的查询人物图片具有较低的分辨率。为了减小这些图片间的分辨率差异,许多现有的跨分辨率行人重识别方法使用超分辨率模块来放大低分辨率图片,恢复丢失的细节,然后将超分辨率图片与其他高分辨率图片进行匹配。本研究以此为基础,针对当前方法存在的缺陷,层层递进地开展了如下三项工作。

 

1.当前的方法在对低分辨率图片进行超分辨率时通常为所有图片指定一个尺度因子。然而,使用不同的尺度因子可能会导致非常不同的恢复和识别效果。比如,较大的尺度因子可以恢复更多的细节,但可能会产生很多噪声,而较小的尺度因子恢复的细节有限,但可以较好地保留原图内容。为了利用这种不同尺度因子的互补性,本研究提出了一个多尺度超分辨率和人体部位融合模型。该模型根据生成的视觉内容联合训练和融合多个具有不同尺度因子的超分辨率模块,以端到端的训练方式充分补偿和学习互补的身份特征。为了提高融合过程中对生成的噪声的鲁棒性,该模型进一步通过划分和融合生成的身体部位学习有用的局部特征。通过自适应融合基于多尺度超分辨率的全局特征和基于人体部位的局部特征,该模型有效地提升了行人识别精度。

 

2.以上的多尺度超分辨率融合方法虽然弥补了分辨率不同导致的信息量差异,但需占用大量计算资源和推理时间。能否从多尺度中预测一个最优的尺度,提升基于单尺度超分辨率的恢复和识别效果,是一个具有研究价值的问题。为此,本研究提出了一个自适应尺度因子预测模型,进一步对第一项工作提出的多尺度超分辨率图片内容进行度量,从中为每一张低分辨率图片找到一个相对最优的尺度因子。为了解决缺乏真实最优尺度因子标注的问题,该模型包含一个自监督的尺度因子度量机制,通过比较多尺度超分辨率图片内容生成动态软标签,指示每个尺度因子是最优尺度的概率,并用来监督基于内容感知的尺度因子预测。在推理时,该模型可以为每张低分辨率图片预测一个较优的尺度因子来提升行人识别精度。

 

3.以上方法总是借助额外的恢复过程来处理低分辨率图片,忽略了学习低分辨率图片本身的特征表示,所以导致推理过程非常耗时。为了解决这个问题,本研究采用用超分辨率图片特征“指导”,而不是“代替”低分辨率图片特征的思路,为跨分辨率行人重识别提出了一个超分辨率指导的特征增强模型。该模型首先利用第二项工作提出的尺度因子度量机制,为给定的低分辨率图片找到最优的尺度因子,恢复最具辨别力的超分辨率图片,然后用其做指导,使原始的低分辨率图片特征可以学习和靠近对应的超分辨率图片特征。通过这种方式,该模型可以充分地从低分辨率图片中学习更具判别力的行人特征表示,从而在推理时直接处理低分辨率图片,而无需执行超分辨率过程。该模型不仅取得了较高的识别精度,而且缩短了推理时间。

 

本研究在多个跨分辨率行人重识别数据集上进行了广泛的实验和分析,证明了上述模型在提升行人识别准确率上的有效性和优越性。

 

语种中文
学科主题计算机科学技术 ; 人工智能
页码112
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/52173]  
专题毕业生_博士学位论文
推荐引用方式
GB/T 7714
韩苛. 跨分辨率行人重识别研究[D]. 2023.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace