咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >结合多尺度融合和图匹配的行人重识别 收藏

结合多尺度融合和图匹配的行人重识别

Pedestrian re-identification combining multi-scale fusion and graph matching

作     者:李冬 张智 LI Dong;ZHANG Zhi

作者机构:武汉科技大学计算机科学与技术学院湖北武汉430065 国家新闻出版署富媒体数字出版内容组织与知识服务重点实验室北京100038 武汉科技大学湖北省智能信息处理与实时计算重点实验室湖北武汉430065 武汉科技大学大数据科学与工程研究院湖北武汉430065 

出 版 物:《计算机工程与设计》 (Computer Engineering and Design)

年 卷 期:2024年第45卷第7期

页      面:2180-2186页

学科分类:1305[艺术学-设计学(可授艺术学、工学学位)] 13[艺术学] 081104[工学-模式识别与智能系统] 08[工学] 0804[工学-仪器科学与技术] 081101[工学-控制理论与控制工程] 0811[工学-控制科学与工程] 

基  金:科技创新“2030”新一代人工智能技术基金项目(2020AAA0108500) 国家自然科学基金项目(U1836118) 武汉市重点研发计划基金项目(2022012202015070) 富媒体数字出版内容组织与知识服务重点实验室开放基金项目(ZD2022-10/05) 

主  题:行人重识别 目标检测 局部特征 多尺度特征融合 图注意力机制 图匹配 卷积神经网络 

摘      要:由于行人遮挡、视角变化等因素影响,传统的行人重识别并不能准确表达遮挡行人的信息。针对该问题,提出一种基于多尺度融合和图匹配的网络模型。分为提取不同尺度的特征和基于拓扑结构匹配图像两个部分,将主干网络分为两个子分支分别提取全局特征并融合多个网络层面的局部特征;使用多头注意力机制学习相邻关键点的关系,基于拓扑结构匹配图像并预测相似度结果。使用ResNet-50作为主干网络,在Occluded-Duke数据集上的Rank-1和mAP分别是64.8%和59.9%,验证该模型在遮挡行人重识别中有一定程度的准确率提升。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分