本论文工作量不大,只是把A Discriminative Feature Learning Approach for Deep Face Recognition这篇论中的中心loss迁移了过来,对xiao tong的端到端的行人框架做了一些改进,不过作者改进工作是在港中文xiao tong最早先发布在axiv上的老版论文进行的,那篇论文用的是RSS随机采样loss,来解决训练问题。不过,文中也提到了与基于IOMloss的检测+reid框架的比较。

在这里总结一下:检测+识别的reid研究:
首先检测+reid问题的研究更贴切的应该叫—person search
包括:
1.PRW数据集
Person reidentification in the wild 主要是一些detector+reid的组合,验证的是DPM-Alex +IDE(detection)组合效果最优

2.CUHK-SYSU数据集
End-to-end deep learning for person search 采用RSSloss实现端到端的训练
Joint detection and identification feature learning for person search 采用OIMloss实现端到端的训练,具有更好性能和更低的计算复杂度。

论文介绍:

作者贡献:
1.Individual Aggregation Network (IAN)采用res-net101结合faster RCNN的RPN/新增中心loss+RSSloss实现了最好的mAP和rank性能。中心loss是的训练得到的类内同ID的特征表达更紧凑,提升不同ID的区分性。
2.简单举例并通过实验得出dropout和作者引入的中心loss不兼容。


其他:由于训练时,输入框架是整张图像,而不同ID行人显示在各图像中是随机的,稀疏的和不均衡中,很难组织等量的正负样本对,不能在基于faster RCNN的框架里直接引入验证对比loss项,所以作者引入了中心loss实现一定的约束,通过减小类的intra-variance 优化模型训练。

在CUHK-SYSU数据集上
新加loss以加权的形式整合到之前的四个loss之和中,实现联合优化,加权参数取值采用训练集交叉验证得到,如下:

模型方法实验对比:

对Occlusion and Resolution的鲁棒性实验:

Effects of Gallery Size:

Input of Center Loss:

Center Loss with VGGNet对dropout和中心loss兼容性验证实验:


分析:dropout不是必须的,只对训练防过拟合有益,移除后,训练得到的性能反而会更好证明当网络既有dropout又有中心loss时,两者是不兼容的,而IAN 移除dropput,再加上中心loss显示了更好的性能

实验效果ranking比较:

在PRW 数据集上

更多推荐

1705.IAN- The Individual Aggregation Network for Person Search 论文阅读笔记