有用户对PaddleClas的代码做了非常详细的解读,可以参考下面的三篇文档。本部分内容大部分也是来自该系列文档,在此感谢FutureSI的贡献与解读。
- PaddleClas主要代码和目录结构如下
- configs 文件夹下存放训练脚本和验证脚本的yaml配置文件,文件按模型类别存放。
- dataset 文件夹下存放数据集和用于处理数据集的脚本。脚本负责将数据集处理为适合Dataloader处理的格式。
- docs 文件夹下存放中英文文档。
- deploy 文件夹存放的是部署工具,支持 Cpp inference、Hub Serveing、Paddle Lite、Slim量化等多种部署方式。
- ppcls 文件夹下存放PaddleClas框架主体。模型结构脚本、数据增强脚本、优化脚本等DL程序的标准流程代码都在这里。
- tools 文件夹下存放用于模型下载、训练、预测的脚本。
- requirements.txt 文件用于安装 PaddleClas 的依赖项。使用pip进行升级安装使用。
深度学习模型训练流程框图如下。
具体地,深度学习模型训练过程中,主要包含以下几个核心模块。
- 数据:对于有监督任务来说,训练数据一般包含原始数据及其标注。在基于单标签的图像分类任务中,原始数据指的是图像数据,而标注则是该图像数据所属的类比。PaddleClas中,训练时需要提供标签文件,形式如下,每一行包含一条训练样本,分别表示图片路径和类别标签,用分隔符隔开(默认为空格)。
train/n01440764/n01440764_10026.JPEG 0
train/n01440764/n01440764_10027.JPEG 0
在代码ppcls/data/reader.py
中,包含CommonDataset
类,继承自paddle.io.Dataset
,该数据集类可以通过一个键值进行索引并获取指定样本。
对于读入的数据,需要通过数据转换,将原始的图像数据进行转换。训练时,标准的数据预处理包含:DecodeImage
, RandCropImage
, RandFlipImage
, NormalizeImage
, ToCHWImage
。在配置文件中体现如下,数据预处理主要包含在transforms
字段中,以列表形式呈现,会按照顺序对数据依次做这些转换。
DataLoader:
Train:
dataset:
name: ImageNetDataset
image_root: ./dataset/ILSVRC2012/
cls_label_path: ./dataset/ILSVRC2012/train_list.txt
transform_ops:
- DecodeImage:
to_rgb: True
channel_first: False
- RandCropImage:
size: 224
- RandFlipImage:
flip_code: 1
- NormalizeImage:
scale: 1.0/255.0
mean: [0.485, 0.456, 0.406]
std: [0.229, 0.224, 0.225]
order: ''
PaddleClas中也包含了AutoAugment
, RandAugment
等数据增广方法,也可以通过在配置文件中配置,从而添加到训练过程的数据预处理中。每个数据转换的方法均以类实现,方便迁移和复用,更多的数据处理具体实现过程可以参考ppcls/data/preprocess/ops/
下的代码。
对于组成一个batch的数据,也可以使用mixup或者cutmix等方法进行数据增广。PaddleClas中集成了MixupOperator
, CutmixOperator
, FmixOperator
等基于batch的数据增广方法,可以在配置文件中配置mix参数进行配置,更加具体的实现可以参考ppcls/data/preprocess/batch_ops/batch_operators.py
。
图像分类中,数据后处理主要为argmax
操作,在此不再赘述。
- 模型结构
在配置文件中,模型结构定义如下
Arch:
name: ResNet50
pretrained: False
use_ssld: False
Arch.name
表示模型名称,Arch.pretrained
表示是否添加预训练模型。所有的模型名称均在ppcls/arch/backbone/__init__.py
中定义。
对应的,在ppcls/arch/__init__.py
中,通过build_model
方法创建模型对象。
def build_model(config):
config = copy.deepcopy(config)
model_type = config.pop("name")
mod = importlib.import_module(__name__)
arch = getattr(mod, model_type)(**config)
return arch
- 损失函数
PaddleClas中,包含了CELoss
, JSDivLoss
, TripletLoss
, CenterLoss
等损失函数,均定义在ppcls/loss
中。
在ppcls/loss/__init__.py
文件中,使用CombinedLoss
来构建及合并损失函数,不同训练策略中所需要的损失函数与计算方法不同,PaddleClas在构建损失函数过程中,主要考虑了以下几个因素。
- 是否使用label smooth
- 是否使用mixup或者cutmix
- 是否使用蒸馏方法进行训练
- 是否是训练metric learning
用户可以在配置文件中指定损失函数的类型及权重,如在训练中添加TripletLossV2,配置文件如下:
Loss:
Train:
- CELoss:
weight: 1.0
- TripletLossV2:
weight: 1.0
margin: 0.5
- 优化器和学习率衰减、权重衰减策略
图像分类任务中,Momentum
是一种比较常用的优化器,PaddleClas中提供了Momentum
与RMSProp
两种优化器策略。
权重衰减策略是一种比较常用的正则化方法,主要用于防止模型过拟合。PaddleClas中提供了L1Decay
和L2Decay
两种权重衰减策略。
学习率衰减是图像分类任务中必不可少的精度提升训练方法,PaddleClas目前支持Cosine
, Piecewise
, Linear
等学习率衰减策略。
在配置文件中,优化器、权重衰减策略、学习率衰减策略可以通过以下的字段进行配置。
Optimizer:
name: Momentum
momentum: 0.9
lr:
name: Piecewise
learning_rate: 0.1
decay_epochs: [30, 60, 90]
values: [0.1, 0.01, 0.001, 0.0001]
regularizer:
name: 'L2'
coeff: 0.0001
在ppcls/optimizer/__init__.py
中使用build_optimizer
创建优化器和学习率对象。
def build_optimizer(config, epochs, step_each_epoch, parameters):
config = copy.deepcopy(config)
# step1 build lr
lr = build_lr_scheduler(config.pop('lr'), epochs, step_each_epoch)
logger.debug("build lr ({}) success..".format(lr))
# step2 build regularization
if 'regularizer' in config and config['regularizer'] is not None:
reg_config = config.pop('regularizer')
reg_name = reg_config.pop('name') + 'Decay'
reg = getattr(paddle.regularizer, reg_name)(**reg_config)
else:
reg = None
logger.debug("build regularizer ({}) success..".format(reg))
# step3 build optimizer
optim_name = config.pop('name')
if 'clip_norm' in config:
clip_norm = config.pop('clip_norm')
grad_clip = paddle.nn.ClipGradByNorm(clip_norm=clip_norm)
else:
grad_clip = None
optim = getattr(optimizer, optim_name)(learning_rate=lr,
weight_decay=reg,
grad_clip=grad_clip,
**config)(parameters=parameters)
logger.debug("build optimizer ({}) success..".format(optim))
return optim, lr
不同优化器和权重衰减策略均以类的形式实现,具体实现可以参考文件ppcls/optimizer/optimizer.py
;不同的学习率衰减策略可以参考文件ppcls/optimizer/learning_rate.py
。
- 训练时评估与模型存储
模型在训练的时候,可以设置模型保存的间隔,也可以选择每隔若干个epoch对验证集进行评估,从而可以保存在验证集上精度最佳的模型。配置文件中,可以通过下面的字段进行配置。
Global:
save_interval: 1 # 模型保存的epoch间隔
eval_during_train: True # 是否进行训练时评估
eval_interval: 1 # 评估的epoch间隔
模型存储是通过 Paddle 框架的 paddle.save()
函数实现的,存储的是模型的 persistable 版本,便于继续训练。具体实现如下
ef save_model(program, model_path, epoch_id, prefix='ppcls'):
model_path = os.path.join(model_path, str(epoch_id))
_mkdir_if_not_exist(model_path)
model_prefix = os.path.join(model_path, prefix)
paddle.static.save(program, model_prefix)
logger.info(
logger.coloring("Already save model in {}".format(model_path), "HEADER"))
在保存的时候有两点需要注意:
- 只在0号节点上保存模型。否则多卡训练的时候,如果所有节点都保存模型到相同的路径,则多个节点写文件时可能会发生写文件冲突,导致最终保存的模型无法被正确加载。
- 优化器参数也需要存储,方便后续的加载断点进行训练。
1.2.3 预测部署代码和方式。
- 如果希望在服务端使用cpp进行部署,可以参考cpp inference预测教程。
- 如果希望将分类模型部署为服务,可以参考hub serving预测部署教程。
- 如果希望将对分类模型进行量化,可以参考Paddle Slim量化教程。
- 如果希望在移动端使用分类模型进行预测,可以参考PaddleLite预测部署教程。
PaddleClas未来将维护2种分支,分别为:
- release/x.x系列分支:为稳定的发行版本分支,会适时打tag发布版本,适配Paddle的release版本。当前最新的分支为release/2.0分支,是当前默认分支,适配Paddle v2.0.0。随着版本迭代,release/x.x系列分支会越来越多,默认维护最新版本的release分支,前1个版本分支会修复bug,其他的分支不再维护。
- develop分支:为开发分支,适配Paddle的develop版本,主要用于开发新功能。如果有同学需要进行二次开发,请选择develop分支。为了保证develop分支能在需要的时候拉出release/x.x分支,develop分支的代码只能使用Paddle最新release分支中有效的api。也就是说,如果Paddle develop分支中开发了新的api,但尚未出现在release分支代码中,那么请不要在PaddleClas中使用。除此之外,对于不涉及api的性能优化、参数调整、策略更新等,都可以正常进行开发。
PaddleClas的历史分支,未来将不再维护。考虑到一些同学可能仍在使用,这些分支还会继续保留:
- release/static分支:这个分支曾用于静态图的开发与测试,目前兼容>=1.7版本的Paddle。如果有特殊需求,要适配旧版本的Paddle,那还可以使用这个分支,但除了修复bug外不再更新代码。
- dygraph-dev分支:这个分支将不再维护,也不再接受新的代码,请使用的同学尽快迁移到develop分支。
PaddleClas欢迎大家向repo中积极贡献代码,下面给出一些贡献代码的基本流程。
- 跳转到PaddleClas GitHub首页,然后单击 Fork 按钮,生成自己目录下的仓库,比如
https://github.com/USERNAME/PaddleClas
。
- 将远程仓库clone到本地
# 拉取develop分支的代码
git clone https://github.com/USERNAME/PaddleClas.git -b develop
cd PaddleClas
clone的地址可以从下面获取
首先通过git remote -v
查看当前远程仓库的信息。
origin https://github.com/USERNAME/PaddleClas.git (fetch)
origin https://github.com/USERNAME/PaddleClas.git (push)
只有clone的远程仓库的信息,也就是自己用户名下的 PaddleClas,接下来我们创建一个原始 PaddleClas 仓库的远程主机,命名为 upstream。
git remote add upstream https://github.com/PaddlePaddle/PaddleClas.git
使用git remote -v
查看当前远程仓库的信息,输出如下,发现包括了origin和upstream 2个远程仓库。
origin https://github.com/USERNAME/PaddleClas.git (fetch)
origin https://github.com/USERNAME/PaddleClas.git (push)
upstream https://github.com/PaddlePaddle/PaddleClas.git (fetch)
upstream https://github.com/PaddlePaddle/PaddleClas.git (push)
这主要是为了后续在提交pull request(PR)时,始终保持本地仓库最新。
可以基于当前分支创建新的本地分支,命令如下。
git checkout -b new_branch
也可以基于远程或者上游的分支创建新的分支,命令如下。
# 基于用户远程仓库(origin)的develop创建new_branch分支
git checkout -b new_branch origin/develop
# 基于上游远程仓库(upstream)的develop创建new_branch分支
# 如果需要从upstream创建新的分支,需要首先使用git fetch upstream获取上游代码
git checkout -b new_branch upstream/develop
最终会显示切换到新的分支,输出信息如下
Branch new_branch set up to track remote branch develop from upstream.
Switched to a new branch 'new_branch'
Paddle 开发人员使用 pre-commit 工具来管理 Git 预提交钩子。 它可以帮助我们格式化源代码(C++,Python),在提交(commit)前自动检查一些基本事宜(如每个文件只有一个 EOL,Git 中不要添加大文件等)。
pre-commit测试是 Travis-CI 中单元测试的一部分,不满足钩子的 PR 不能被提交到 PaddleClas,首先安装并在当前目录运行它:
pip install pre-commit
pre-commit install
- 注意
- Paddle 使用 clang-format 来调整 C/C++ 源代码格式,请确保
clang-format
版本在 3.8 以上。 - 通过pip install pre-commit和conda install -c conda-forge pre-commit安装的yapf稍有不同的,PaddleClas 开发人员使用的是
pip install pre-commit
。
可以通过git status
查看改动的文件。
对PaddleClas的README.md
做了一些修改,希望提交上去。则可以通过以下步骤
git add README.md
pre-commit
重复上述步骤,直到pre-comit格式检查不报错。如下所示。
使用下面的命令完成提交。
git commit -m "your commit info"
获取 upstream 的最新代码并更新当前分支。这里的upstream来自于2.2节的和远程仓库建立连接
部分。
git fetch upstream
# 如果是希望提交到其他分支,则需要从upstream的其他分支pull代码,这里是develop
git pull upstream develop
git push origin new_branch
点击new pull request,选择本地分支和目标分支,如下图所示。在PR的描述说明中,填写该PR所完成的功能。接下来等待review,如果有需要修改的地方,参照上述步骤更新 origin 中的对应分支即可。
- 签署CLA 在首次向PaddlePaddle提交Pull Request时,您需要您签署一次CLA(Contributor License Agreement)协议,以保证您的代码可以被合入,具体签署方式如下:
- 请您查看PR中的Check部分,找到license/cla,并点击右侧detail,进入CLA网站
- 点击CLA网站中的“Sign in with GitHub to agree”,点击完成后将会跳转回您的Pull Request页面
- 删除远程分支
在 PR 被 merge 进主仓库后,我们可以在 PR 的页面删除远程仓库的分支。
也可以使用 git push origin :分支名
删除远程分支,如:
git push origin :new_branch
- 删除本地分支
# 切换到develop分支,否则无法删除当前分支
git checkout develop
# 删除new_branch分支
git branch -D new_branch
为了使官方维护人员在评审代码时更好地专注于代码本身,请您每次提交代码时,遵守以下约定:
1)请保证Travis-CI 中单元测试能顺利通过。如果没过,说明提交的代码存在问题,官方维护人员一般不做评审。
2)提交PUll Request前:
请注意commit的数量。
原因:如果仅仅修改一个文件但提交了十几个commit,每个commit只做了少量的修改,这会给评审人带来很大困扰。评审人需要逐一查看每个commit才能知道做了哪些修改,且不排除commit之间的修改存在相互覆盖的情况。
建议:每次提交时,保持尽量少的commit,可以通过git commit --amend补充上次的commit。对已经Push到远程仓库的多个commit,可以参考squash commits after push。
请注意每个commit的名称:应能反映当前commit的内容,不能太随意。
3)如果解决了某个Issue的问题,请在该PUll Request的第一个评论框中加上:fix #issue_number,这样当该PUll Request被合并后,会自动关闭对应的Issue。关键词包括:close, closes, closed, fix, fixes, fixed, resolve, resolves, resolved,请选择合适的词汇。详细可参考Closing issues via commit messages。
此外,在回复评审人意见时,请您遵守以下约定:
1)官方维护人员的每一个review意见都希望得到回复,这样会更好地提升开源社区的贡献。
- 对评审意见同意且按其修改完的,给个简单的Done即可;
- 对评审意见不同意的,请给出您自己的反驳理由。
2)如果评审意见比较多,
- 请给出总体的修改情况。
- 请采用
start a review
进行回复,而非直接回复的方式。原因是每个回复都会发送一封邮件,会造成邮件灾难。
- 开源社区依赖于众多开发者与用户的贡献和反馈,在这里感谢与期待大家向PaddleClas提出宝贵的意见与pull request,希望我们可以一起打造一个领先实用全面的图像分类代码仓库!