简体中文 | English
PaddleDetection团队提供了针对行人的基于PP-YOLOE的检测模型,用户可以下载模型进行使用。PP-Human中使用模型为业务数据集模型,我们同时提供CrowdHuman训练配置,可以使用开源数据进行训练。
其中整理后的COCO格式的CrowdHuman数据集下载链接,检测类别仅一类 pedestrian(1)
,原始数据集下载链接。
相关模型的部署模型均在PP-Human项目中使用。
模型 | 数据集 | mAPval 0.5:0.95 |
mAPval 0.5 |
下载 | 配置文件 |
---|---|---|---|---|---|
PP-YOLOE-s | CrowdHuman | 42.5 | 77.9 | 下载链接 | 配置文件 |
PP-YOLOE-l | CrowdHuman | 48.0 | 81.9 | 下载链接 | 配置文件 |
PP-YOLOE-s | 业务数据集 | 53.2 | - | 下载链接 | 配置文件 |
PP-YOLOE-l | 业务数据集 | 57.8 | - | 下载链接 | 配置文件 |
PP-YOLOE+_t-aux(320) | 业务数据集 | 45.7 | 81.2 | 下载链接 | 配置文件 |
注意:
- PP-YOLOE模型训练过程中使用8 GPUs进行混合精度训练,如果GPU卡数或者batch size发生了改变,你需要按照公式 lrnew = lrdefault * (batch_sizenew * GPU_numbernew) / (batch_sizedefault * GPU_numberdefault) 调整学习率。
- 具体使用教程请参考ppyoloe。
基于PP-YOLOE模型的香烟检测模型,是实现PP-Human中的基于检测的行为识别方案的一环,如何在PP-Human中使用该模型进行吸烟行为识别,可参考PP-Human行为识别模块。该模型检测类别仅包含香烟一类。由于数据来源限制,目前暂无法直接公开训练数据。该模型使用了小目标数据集VisDrone上的权重(参照visdrone)作为预训练模型,以提升检测效果。
模型 | 数据集 | mAPval 0.5:0.95 |
mAPval 0.5 |
下载 | 配置文件 |
---|---|---|---|---|---|
PP-YOLOE-s | 香烟业务数据集 | 39.7 | 79.5 | 下载链接 | 配置文件 |
基于PP-HGNet模型实现了打电话行为识别,详细可参考PP-Human行为识别模块。该模型基于PaddleClas套件进行训练。此处提供预测模型下载:
模型 | 数据集 | Acc | 下载 | 配置文件 |
---|---|---|---|---|
PP-HGNet | 业务数据集 | 86.85 | 下载链接 | - |
人体关键点模型与ST-GCN模型一起完成基于骨骼点的行为识别方案。关键点模型采用HRNet模型,关于关键点模型相关详细资料可以查看关键点专栏页面KeyPoint。此处提供训练模型下载链接。
模型 | 数据集 | APval 0.5:0.95 |
下载 | 配置文件 |
---|---|---|---|---|
HRNet | 业务数据集 | 87.1 | 下载链接 | 配置文件 |
人体关键点模型与ST-GCN模型一起完成基于骨骼点的行为识别方案。 ST-GCN模型基于PaddleVideo完成训练。 此处提供预测模型下载链接。
模型 | 数据集 | APval 0.5:0.95 |
下载 | 配置文件 |
---|---|---|---|---|
ST-GCN | 业务数据集 | 87.1 | 下载链接 | 配置文件 |
基于PP-TSM
模型完成了基于视频分类的行为识别方案。
PP-TSM模型基于PaddleVideo完成训练。
此处提供预测模型下载链接。
模型 | 数据集 | Acc | 下载 | 配置文件 |
---|---|---|---|---|
PP-TSM | 组合开源数据集 | 89.06 | 下载链接 | 配置文件 |
基于PP-HGNet、PP-LCNet 模型实现了行人属性识别,详细可参考PP-Human行为识别模块。该模型基于PaddleClas套件进行训练。此处提供预测模型下载链接.
模型 | 数据集 | mA | 下载 | 配置文件 |
---|---|---|---|---|
PP-HGNet_small | 业务数据集 | 95.4 | 下载链接 | - |
PP-LCNet | 业务数据集 | 94.5 | 下载链接 | 配置文件 |
@article{shao2018crowdhuman,
title={CrowdHuman: A Benchmark for Detecting Human in a Crowd},
author={Shao, Shuai and Zhao, Zijian and Li, Boxun and Xiao, Tete and Yu, Gang and Zhang, Xiangyu and Sun, Jian},
journal={arXiv preprint arXiv:1805.00123},
year={2018}
}