行人属性识别研究综述

Posted AI浩

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了行人属性识别研究综述相关的知识,希望对你有一定的参考价值。

文章目录

🐇🐇🐇🐇🐇🐇
🐇 欢迎阅读 【AI浩】 的博客🐇
👍 阅读完毕,可以点点小手赞一下👍
🌻 发现错误,直接评论区中指正吧🌻
📆 这是一篇研究行人属性识别综述论文📆
💯论文链接: Pedestrian Attribute Recognition: A Survey💯

摘要

行人属性识别在视频监控中起着重要作用,是计算机视觉领域的一项重要任务。已经提出了许多算法来处理这个任务。本文的目的是回顾现有的使用传统方法或基于深度学习网络的工作。首先,介绍了行人属性识别研究的背景,包括行人属性的基本概念和面临的挑战;其次,介绍了现有的基准,包括流行的数据集和评估标准;然后,分析了多任务学习和多标记学习的概念,并解释了这两种学习算法与行人属性识别之间的关系;还回顾了一些在深度学习社区中广泛应用的流行网络架构。第四,分析了当前流行的解决方案,如属性组、基于部件等;第五,展示了一些考虑行人属性的应用,取得了较好的效果。最后进行总结,并给出了行人属性识别未来可能的研究方向。本文的项目页面可以在以下网站找到:
https://sites.google.com/view/ahu-pedestrianattributes/。

1、简介

行人属性是一种可搜索的语义信息,可应用于行人再识别、人脸验证和身份识别等领域。行人属性识别(Pedestrian attributes recognition, PAR)旨在挖掘给定行人图像时目标人物的属性,如图1所示。与HOG、LBP或深度特征等底层特征不同,属性可以看作是高层语义信息,对视点变化和观察条件多样性具有更强的鲁棒性。因此,计算机视觉中的许多任务都将属性信息融入到算法中以获得更好的性能,如行人识别、行人检测等。然而,由于视角变化、低光照、低分辨率等具有挑战性的因素,行人属性识别仍然是一个尚未解决的问题。

传统的行人属性识别方法通常从手工特征、强大的分类器或属性关系的角度来开发鲁棒的特征表示。一些里程碑事件包括HOG[1]、SIFT[2]、SVM[3]或CRF模型[4]。然而,大规模的基准测试结果表明,这些传统算法的性能还远远不能满足实际应用的要求。

在过去的几年中,深度学习通过多层非线性变换在自动特征提取方面取得了令人印象深刻的成绩,特别是在计算机视觉、语音识别和自然语言处理方面。基于这些突破,已经提出了几种基于深度学习的属性识别算法,如[5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][25][26][27][28][29][30][31][32][33]。

虽然已经有很多论文提出,但至今还没有工作对这些属性识别算法进行详细的综述、全面的评价和深入的分析。文中总结了现有的行人属性识别工作,包括传统方法和流行的基于深度学习的算法,以更好地理解该方向,并帮助其他研究人员快速捕捉主要流程和最新研究前沿。具体而言,本文试图解决以下几个重要问题:(1)传统和基于深度学习的行人属性识别算法之间的联系和区别是什么?从不同的分类规则分析传统和基于深度学习的算法,如基于部件、基于组或端到端学习;(2)行人属性如何帮助其他相关的计算机视觉任务?还回顾了一些由行人属性引导的计算机视觉任务,如行人再识别、目标检测、行人跟踪等,以充分证明该方法在其他许多相关任务中的有效性和广泛应用;(3)如何更好地利用深度网络进行行人属性识别,属性识别的未来发展方向是什么?通过评估现有的行人属性识别算法和一些排名靠前的基线方法,得出了一些有用的结论,并提出了一些可能的研究方向。

本文的其余部分组织如下。在第2节中,我们简要介绍了行人属性识别的问题表述和一些具有挑战性的因素。在第3节中,我们列出了这项任务的一些流行基准,并报告了基准方法的相应识别性能。然后,从不同的类别回顾了第4节和第6节中的现有方法。将这些方法分为8个领域,包括:基于全局的、基于局部部件的、基于视觉注意的、基于序列预测的、基于新设计的损失函数的、基于课程学习的、基于图模型的和其他算法。在第7节中,我们将展示一些示例,这些示例可以将属性纳入考虑,并取得更好的性能。最后,在第8节对全文进行了总结,并提出了该方向可能的研究方向。为了更好地可视化和理解本文的结构,我们给出了如图2所示的图。

2 问题的表述和挑战

给定一个人物图像 I \\mathcalI I,行人属性识别旨在从预定义的属性列表 A = a 1 , a 2 , … , a L \\mathcalA=\\left\\a_1, a_2, \\ldots, a_L\\right\\ A=a1,a2,,aL中预测出一组用于描述该人物特征的属性 a i a_i ai,如图1所示。这一任务可以用不同的方法来处理,如多标签分类、二分类等,已经提出了许多算法和基准。然而,由于属性类别的类内差异较大(外观多样性和外观模糊性[34]),这项任务仍然具有挑战性。我们列出可能明显影响最终识别性能的挑战性因素如下(见图3):

多视角。在许多计算机视觉任务中,相机从不同角度拍摄的图像会导致视点问题。由于人的身体不是刚性的,这进一步使得人的属性识别更加复杂。

遮挡。人体的一部分被他人或物体遮挡会增加人体属性识别的难度。因为被遮挡部分引入的像素值可能会使模型混淆,导致错误的预测。

数据分布不均衡。每个人具有不同的属性,属性的数量是可变的,导致数据分布不平衡。众所周知,现有的机器学习算法在这些数据集上表现不佳。

低分辨率。在实际应用场景中,由于高质量相机价格昂贵,导致图像分辨率较低。因此,需要在这种环境下进行人物属性识别。

光照。图像可以在24小时内的任何时间拍摄。因此,不同时间的光照条件可能不同。阴影也可能在人物图像中,而在夜间拍摄的图像可能完全无效。

模糊。当人在运动时,相机拍摄到的图像可能会模糊。在这种情况下,如何正确识别行人属性是一项非常具有挑战性的任务。

3 标准

与计算机视觉中的其他任务不同,对于行人属性识别,数据集的标注包含不同层次的标签。将发型和颜色、帽子、玻璃等作为特定的底层属性,对应图像的不同区域;将性别、方向、年龄等抽象概念作为高层属性,不对应图像的特定区域;此外,人体属性识别一般受到视角、遮挡、部位等环境或上下文因素的严重影响,为了方便研究,一些数据集提供了视角、部位边界框、遮挡等属性。

通过回顾近年来的相关工作,发现并总结了几个用于行人属性识别研究的数据集,包括PETA[34]、RAP[35]、RAP-2.0[36]、PA-100K[18]、WIDER[16]、Market-1501[37]、DukeMTMC[37]、Clothing属性数据集[38]、parse27k[5][39]、APiS[40]、HAT[41]、Berkeley-Attributes of People数据集[8]和CRP数据集[42]。由于篇幅有限,这些数据集的属性标签的详细信息可以在我们的项目页面中找到。

3.1 数据集

PETA数据集[34] PETA数据集由10个用于研究行人再识别的公开小规模数据集构建而成。该数据集由19000张图像组成,分辨率从17×39到169×365像素不等。这19000张图像包含8705个人,每个人标注了61个二值属性和4个多类属性,随机分为9500张用于训练,1900张用于验证,7600张用于测试。一个显著的限制是,通过随机选择一个样本图像,PETA数据集中的一个人的样本只被标注一次,因此具有相同的标注属性,即使其中一些可能不可见,而其他一些属性则被忽略。虽然这种方法有一定的合理性,但是对于视觉感知来说不是很合适。

PARSE-27K[5], [39] PARSE-27K数据集来自城市环境中移动摄像机拍摄的8个不同长度的视频序列。每15帧序列由DPM行人检测器[48]处理;它包含27,000名行人,并分为训练(50%)、验证(25%)和测试(25%)三个部分。每个样本被人工标注了10个属性标签,其中包括8个二元属性,如“是男?”左肩上有包吗?两个方向属性分别离散化4和8。在PARSE-27K数据集中,由于遮挡、图像边界或任何其他原因无法确定的属性称为N/A标签。

RAP[35] RAP数据集从真实的室内监控场景中采集,选取26个摄像头获取图像,包含41585个样本,分辨率从36×92到344×554,其中有33268张图像用于训练,其余图像用于测试。为该数据集的每个图像分配了72个细粒度属性(69个二进制属性和3个多类属性)。三个环境和上下文因素,即,视角,遮挡样式和身体部位,都有明确的注释。考虑6个部分(时空信息、全身属性、配饰、姿态动作、遮挡和部位属性)进行属性标注。

RAP- 2.0 [36] RAP-2.0数据集来自室内购物中心的真实高清(1280 × 720)监控网络,所有图像由25个摄像机场景捕获。该数据集包含84928张图像(2589个人物身份),分辨率从33 × 81到415 × 583。该数据集中的每个图像都有6种类型的标签,与RAP数据集相同,具有72个属性标签。所有样本分为三个部分,其中50957用于训练,16986用于验证,16985用于测试。

HAT数据集[41] HAT数据集源自流行的图像共享网站Flickr。该数据集包含9344个样本,其中用于训练、验证和测试的图像分别为3500、3500和2344张。这个数据集中的每个图像都有27个属性,并且在姿势(站立、坐着、跑步、转身等)、不同年龄(婴儿、青少年、青年、中年、老年人等)、穿着不同的衣服(t恤、西装、沙滩服、短裤等)和配饰(太阳镜、包等)方面显示了相当大的变化。

APiS数据集[40] APiS数据集来自四个来源:KITTI[44]数据集,CBCL街景45数据集,INRIA[1]数据库和SVS数据集(火车站监控视频序列)。使用行人检测方法[49]自动定位候选行人区域,删除误报和过小图像,最终得到3661幅图像,每张图像高度大于90像素,宽度大于35像素。对每幅图像标注"男性"、"长发"等11个二值属性和上半身颜色、下半身颜色等2个多值属性。“二义性”表示对应属性是否具有不确定性。该数据集被分成5个大小相等的子集,使用5折交叉验证来评估性能,并进一步平均5折中的5个结果以生成单个性能报告。

Berkeley-Attributes of People 数据集 BAP[8]该数据集来自H3D[46]数据集和PASCAL VOC 2010[47]训练和验证数据集。对于person类别,PASCAL中使用的低分辨率版本被Flickr上的全分辨率版本取代。所有图像被分割为2003张训练图像,2010张验证图像和4022张测试图像,确保不同集的裁剪图像没有来自同一源图像,并保持每个集中H3D和PASCAL图像的平衡分布。每张图像都标注了9个属性。如果5个标注者中至少有4人同意标签的值,则标签被认为是基本真理。当无法确定某个属性是否存在时,将其标注为“未指定”。

PA-100K[18] PA-100K数据集由598个真实的户外监控摄像头拍摄的图像构建,包含10万幅行人图像,分辨率从50 × 100到758 × 454,是目前最大的行人属性识别数据集。整个数据集按8:1:1的比例随机分为训练集、验证集和测试集。该数据集中的每个图像都被标记了26个属性,标签为0或1,分别表示相应属性的存在或不存在。

WIDER[16] WIDER数据集来自于50574张WIDER images[43],这些图像通常包含许多人和巨大的人类变化,共选择了13789张图像。每个图像都标注了边界框,但在人群图像中不超过20人(最高分辨率),因此总共有57524个框,平均每张图像有4+个框。每个人都有14个不同的属性,总共有805336个标签。该数据集分为5509张训练图像,1362张验证图像和6918张测试图像。

Market1501-attribute [50] 数据集Market-1501由清华大学超市前的6个摄像头采集。在这个数据集中有1501个身份和32,668个注释边界框。每个标注的身份存在于至少两个摄像头中。该数据集分为751个训练身份和750个测试身份,分别对应12936和19732张图像。在身份级别对属性进行标注,该数据集中的每个图像都被标注了27个属性。请注意,虽然下半身服装和上半身服装有7和8个属性,但只有一种颜色标记为yes。

DukeMTMC-attribute [50] dukemtmattribute数据集中的图像来自杜克大学。在DukeMTMC-attribute数据集中有1812个identity和34183个带注释的边界框。该数据集包含702个用于训练的身份和1110个用于测试的身份,分别对应于16522和17661张图像。在身份层对属性进行标注,该数据集中的每个图像都被标注了23个属性。

CRP [42] CRP数据集中的每个图像都是在野外捕获的,行人是从移动的车辆上“在野外”记录的。CRP数据集包含7个视频和27454个行人边界框。每位行人均被标记了四种属性:年龄(5类)、性别(2类)、体重(3类)和服装类型(4类)。该数据集分为包含4个视频的训练/验证集,其余3个视频形成测试集。

Clothing Attributes 数据集 CAD[28]服装属性数据集是从裁缝师y和Flickr上收集的。该数据集包含1856张图像,其中26个真实服装属性是使用Amazon Mechanical Turk收集的。所有标签按照图片1到1856的顺序排列。有些标签条目是“NaN”,这意味着6个人类工人在这个服装属性上无法达成一致。共有26个属性,包括23个二类属性(6个款式属性、11个颜色属性和6个杂项属性)和3个多类属性(袖长、领口形状和服装类别)。该数据集通过leave-1-out分割用于训练和测试。

表1:行人属性数据集概述(#表示数量)
Dataset#Pedestrians#AttributesSourceProject Page
PETA [34]1900061 binary and 4 multi-class attributesoutdoor & indoorhttp://mmlab.ie.cuhk.edu.hk/projects/PETA.html
RAP [35]4158569 binary and 3 multi-class attributesindoorhttp://rap.idealtest.org/
RAP-2.0 [36]8492869 binary and 3 multi-class attributesindoorhttps://drive.google.com/file/d/1hoPIB5NJKf3YGMvLFZnIYG5JDcZTxHph/view
PA-100K [18]10000026 binary attributesoutdoorhttps://drive.google.com/drive/folders/0B5Ra3JsEOyOUlhKM0VPZ1ZWR2M
WIDER [16]1378914 binary attributesWIDER images [43]http://mmlab.ie.cuhk.edu.hk/projects/WIDERAttribute.html
Market-1501 [37]3266826 binary and 1 multi-class attributesoutdoorhttps://github.com/vana77/Market-1501 Attribute
DukeMTMC [37]3418323 binary attributesoutdoorhttps://github.com/vana77/DukeMTMC-attribute
PARSE-27K [5] [39]270008 binary and 2 multi-class orientation attributesoutdoorhttps://www.vision.rwth-aachen.de/page/parse27k
APiS [40]366111 binary and 2 multi-class attributesKITTI [44] ,CBCL Street Scenes [45],INRIA [1] and SVShttp://www.cbsr.ia.ac.cn/english/APiS-1.0-Database.html
HAT [41]934427 binary attributesimage site Flickrhttps://jurie.users.greyc.fr/datasets/hat.html
CRP [42]274541 binary attributes and 13 multi-class attributesoutdoorhttp://www.vision.caltech.edu/∼dhall/projects/CRP/
CAD [38]185623 binary attributes and 3 multi-class attributesimage site Sartorialist∗ and Flickrhttps://purl.stanford.edu/tb980qz1002
BAP [8]80359 binary attributesH3D [46] dataset PASCAL VOC 2010 [47]https://www2.eecs.berkeley.edu/Research/Projects/CS/vision/shape/poselets/

3.2 评价标准

zhu等人[40]通过召回率和假阳率两个指标计算受试者工作特征(Receiver Operating Characteristic, ROC)和平均ROC曲线下面积(Area Under the average ROC Curve, AUC)来评估每个属性分类的性能。召回率(recall rate)是正确检测到的阳性样本占正样本总数的比例,假阳性率(false positive rate)是错误分类的阴性样本占负样本总数的比例。在不同的阈值设置下,可以通过绘制召回率和假阳性率绘制ROC曲线。此外,zhu 等人[40]还使用了平均ROC曲线下面积(Area Under the average ROC Curve, AUC)来进行更清晰的性能对比。

Deng等人在[34]中采用平均准确率(mA)来评价属性识别算法。对于每个属性,mA分别计算正样本和负样本的分类准确率,得到它们的平均值作为该属性的识别结果。最后,对所有属性进行平均得到识别率。评价标准可以通过下式计算:
m A = 1 2 N ∑ i = 1 L ( T P i P i + T N i N i ) (1) m A=\\frac12 N \\sum_i=1^L\\left(\\fracT P_iP_i+\\fracT N_iN_i\\right) \\tag1 mA=2N1i=1L(PiTPi+NiTNi)(1)
其中 L L L是属性的数量。 T P i TP_i TPi T N i TN_i TNi分别是正确预测的正例和负例的数量, P i P_i Pi N i N_i Ni分别是正例和负例的数量。

上述评价准则独立地对待每个属性,忽略了多属性识别问题中自然存在的属性间相关性。Li 等人[35]将上述解决方案称为基于标签的评价准则,并提出使用基于实例的评价准则,其灵感来自于基于实例的评价能够更好地捕捉对给定行人图像预测的一致性[51]。目前广泛使用的基于实例的评价标准包括四个指标:准确率、精确率、召回率和F1值,定义如下:
 Acc  exam  = 1 N ∑ i = 1 N ∣ Y i ∩ f ( x i ) ∣ ∣ Y i ∪ f ( x i ) ∣ (2) \\text Acc _\\text exam =\\frac1N \\sum_i=1^N \\frac\\left|Y_i \\cap f\\left(x_i\\right)\\right|\\left|Y_i \\cup f\\left(x_i\\right)\\right|\\tag2  Acc exam =N1i=1NYif(xi)Yif(xi)(2)

 Prex  exam  = 1 2 N ∑ i = 1 N ∣ Y i ∩ f ( x i ) ∣ ∣ f ( x i ) ∣ (3) \\text Prex _\\text exam =\\frac12 N \\sum_i=1^N \\frac\\left|Y_i \\cap f\\left(x_i\\right)\\right|\\left|f\\left(x_i\\right)\\right| \\tag3  Prex exam =2N1i=1Nf(xi)Yif(xi)(3)

Rec ⁡ exam  = 1 2 N ∑ i = 1 N ∣ Y i ∩ f ( x i ) ∣ ∣ Y i ∣ (4) \\operatornameRec_\\text exam =\\frac12 N \\sum_i=1^N \\frac\\left|Y_i \\cap f\\left(x_i\\right)\\right|\\left|Y_i\\right| \\tag4 Recexam =2N1i=1NYiY以上是关于行人属性识别研究综述的主要内容,如果未能解决你的问题,请参考以下文章

第66篇行人属性识别研究综述

行人属性识别研究综述

行人属性识别研究综述

行人属性识别的一个调研

行人属性识别的一个调研

深度学习行人重识别综述与展望,TPAMI 2021 最新文章