Skip to content

Latest commit

 

History

History
452 lines (308 loc) · 19.1 KB

quick_start_community.md

File metadata and controls

452 lines (308 loc) · 19.1 KB

PaddleClas代码解析与社区贡献指南

1. 整体代码结构解析

1.1 前言

有用户对PaddleClas的代码做了非常详细的解读,可以参考下面的三篇文档。本部分内容大部分也是来自该系列文档,在此感谢FutureSI的贡献与解读。

1.2 代码解析

1.2.1 整体代码和目录概览

  • PaddleClas主要代码和目录结构如下
  • configs 文件夹下存放训练脚本和验证脚本的yaml配置文件,文件按模型类别存放。
  • dataset 文件夹下存放数据集和用于处理数据集的脚本。脚本负责将数据集处理为适合Dataloader处理的格式。
  • docs 文件夹下存放中英文文档。
  • deploy 文件夹存放的是部署工具,支持 Cpp inference、Hub Serveing、Paddle Lite、Slim量化等多种部署方式。
  • ppcls 文件夹下存放PaddleClas框架主体。模型结构脚本、数据增强脚本、优化脚本等DL程序的标准流程代码都在这里。
  • tools 文件夹下存放用于模型下载、训练、预测的脚本。
  • requirements.txt 文件用于安装 PaddleClas 的依赖项。使用pip进行升级安装使用。

1.2.2 训练模块定义

深度学习模型训练流程框图如下。

具体地,深度学习模型训练过程中,主要包含以下几个核心模块。

  • 数据:对于有监督任务来说,训练数据一般包含原始数据及其标注。在基于单标签的图像分类任务中,原始数据指的是图像数据,而标注则是该图像数据所属的类比。PaddleClas中,训练时需要提供标签文件,形式如下,每一行包含一条训练样本,分别表示图片路径和类别标签,用分隔符隔开(默认为空格)。
train/n01440764/n01440764_10026.JPEG 0
train/n01440764/n01440764_10027.JPEG 0

在代码ppcls/data/reader.py中,包含CommonDataset类,继承自paddle.io.Dataset,该数据集类可以通过一个键值进行索引并获取指定样本。

对于读入的数据,需要通过数据转换,将原始的图像数据进行转换。训练时,标准的数据预处理包含:DecodeImage, RandCropImage, RandFlipImage, NormalizeImage, ToCHWImage。在配置文件中体现如下,数据预处理主要包含在transforms字段中,以列表形式呈现,会按照顺序对数据依次做这些转换。

DataLoader:
  Train:
    dataset:
      name: ImageNetDataset
      image_root: ./dataset/ILSVRC2012/
      cls_label_path: ./dataset/ILSVRC2012/train_list.txt
      transform_ops:
        - DecodeImage:
            to_rgb: True
            channel_first: False
        - RandCropImage:
            size: 224
        - RandFlipImage:
            flip_code: 1
        - NormalizeImage:
            scale: 1.0/255.0
            mean: [0.485, 0.456, 0.406]
            std: [0.229, 0.224, 0.225]
            order: ''

PaddleClas中也包含了AutoAugment, RandAugment等数据增广方法,也可以通过在配置文件中配置,从而添加到训练过程的数据预处理中。每个数据转换的方法均以类实现,方便迁移和复用,更多的数据处理具体实现过程可以参考ppcls/data/preprocess/ops/下的代码。

对于组成一个batch的数据,也可以使用mixup或者cutmix等方法进行数据增广。PaddleClas中集成了MixupOperator, CutmixOperator, FmixOperator等基于batch的数据增广方法,可以在配置文件中配置mix参数进行配置,更加具体的实现可以参考ppcls/data/preprocess/batch_ops/batch_operators.py

图像分类中,数据后处理主要为argmax操作,在此不再赘述。

  • 模型结构

在配置文件中,模型结构定义如下

Arch:
  name: ResNet50
  pretrained: False
  use_ssld: False

Arch.name表示模型名称,Arch.pretrained表示是否添加预训练模型。所有的模型名称均在ppcls/arch/backbone/__init__.py中定义。

对应的,在ppcls/arch/__init__.py中,通过build_model方法创建模型对象。

def build_model(config):
    config = copy.deepcopy(config)
    model_type = config.pop("name")
    mod = importlib.import_module(__name__)
    arch = getattr(mod, model_type)(**config)
    return arch
  • 损失函数

PaddleClas中,包含了CELoss, JSDivLoss, TripletLoss, CenterLoss等损失函数,均定义在ppcls/loss中。

ppcls/loss/__init__.py文件中,使用CombinedLoss来构建及合并损失函数,不同训练策略中所需要的损失函数与计算方法不同,PaddleClas在构建损失函数过程中,主要考虑了以下几个因素。

  1. 是否使用label smooth
  2. 是否使用mixup或者cutmix
  3. 是否使用蒸馏方法进行训练
  4. 是否是训练metric learning

用户可以在配置文件中指定损失函数的类型及权重,如在训练中添加TripletLossV2,配置文件如下:

Loss:
  Train:
    - CELoss:
        weight: 1.0
    - TripletLossV2:
        weight: 1.0
        margin: 0.5
  • 优化器和学习率衰减、权重衰减策略

图像分类任务中,Momentum是一种比较常用的优化器,PaddleClas中提供了MomentumRMSProp两种优化器策略。

权重衰减策略是一种比较常用的正则化方法,主要用于防止模型过拟合。PaddleClas中提供了L1DecayL2Decay两种权重衰减策略。

学习率衰减是图像分类任务中必不可少的精度提升训练方法,PaddleClas目前支持Cosine, Piecewise, Linear等学习率衰减策略。

在配置文件中,优化器、权重衰减策略、学习率衰减策略可以通过以下的字段进行配置。

Optimizer:
  name: Momentum
  momentum: 0.9
  lr:
    name: Piecewise
    learning_rate: 0.1
    decay_epochs: [30, 60, 90]
    values: [0.1, 0.01, 0.001, 0.0001]
  regularizer:
    name: 'L2'
    coeff: 0.0001

ppcls/optimizer/__init__.py中使用build_optimizer创建优化器和学习率对象。

def build_optimizer(config, epochs, step_each_epoch, parameters):
    config = copy.deepcopy(config)
    # step1 build lr
    lr = build_lr_scheduler(config.pop('lr'), epochs, step_each_epoch)
    logger.debug("build lr ({}) success..".format(lr))
    # step2 build regularization
    if 'regularizer' in config and config['regularizer'] is not None:
        reg_config = config.pop('regularizer')
        reg_name = reg_config.pop('name') + 'Decay'
        reg = getattr(paddle.regularizer, reg_name)(**reg_config)
    else:
        reg = None
    logger.debug("build regularizer ({}) success..".format(reg))
    # step3 build optimizer
    optim_name = config.pop('name')
    if 'clip_norm' in config:
        clip_norm = config.pop('clip_norm')
        grad_clip = paddle.nn.ClipGradByNorm(clip_norm=clip_norm)
    else:
        grad_clip = None
    optim = getattr(optimizer, optim_name)(learning_rate=lr,
                                           weight_decay=reg,
                                           grad_clip=grad_clip,
                                           **config)(parameters=parameters)
    logger.debug("build optimizer ({}) success..".format(optim))
    return optim, lr

不同优化器和权重衰减策略均以类的形式实现,具体实现可以参考文件ppcls/optimizer/optimizer.py;不同的学习率衰减策略可以参考文件ppcls/optimizer/learning_rate.py

  • 训练时评估与模型存储

模型在训练的时候,可以设置模型保存的间隔,也可以选择每隔若干个epoch对验证集进行评估,从而可以保存在验证集上精度最佳的模型。配置文件中,可以通过下面的字段进行配置。

Global:
  save_interval: 1 # 模型保存的epoch间隔
  eval_during_train: True # 是否进行训练时评估
  eval_interval: 1 # 评估的epoch间隔

模型存储是通过 Paddle 框架的 paddle.save() 函数实现的,存储的是模型的 persistable 版本,便于继续训练。具体实现如下

ef save_model(program, model_path, epoch_id, prefix='ppcls'):
    model_path = os.path.join(model_path, str(epoch_id))
    _mkdir_if_not_exist(model_path)
    model_prefix = os.path.join(model_path, prefix)
    paddle.static.save(program, model_prefix)
    logger.info(
        logger.coloring("Already save model in {}".format(model_path), "HEADER"))

在保存的时候有两点需要注意:

  1. 只在0号节点上保存模型。否则多卡训练的时候,如果所有节点都保存模型到相同的路径,则多个节点写文件时可能会发生写文件冲突,导致最终保存的模型无法被正确加载。
  2. 优化器参数也需要存储,方便后续的加载断点进行训练。

1.2.3 预测部署代码和方式。

2. 如何贡献代码

2.1 PaddleClas分支说明

PaddleClas未来将维护2种分支,分别为:

  • release/x.x系列分支:为稳定的发行版本分支,会适时打tag发布版本,适配Paddle的release版本。当前最新的分支为release/2.0分支,是当前默认分支,适配Paddle v2.0.0。随着版本迭代,release/x.x系列分支会越来越多,默认维护最新版本的release分支,前1个版本分支会修复bug,其他的分支不再维护。
  • develop分支:为开发分支,适配Paddle的develop版本,主要用于开发新功能。如果有同学需要进行二次开发,请选择develop分支。为了保证develop分支能在需要的时候拉出release/x.x分支,develop分支的代码只能使用Paddle最新release分支中有效的api。也就是说,如果Paddle develop分支中开发了新的api,但尚未出现在release分支代码中,那么请不要在PaddleClas中使用。除此之外,对于不涉及api的性能优化、参数调整、策略更新等,都可以正常进行开发。

PaddleClas的历史分支,未来将不再维护。考虑到一些同学可能仍在使用,这些分支还会继续保留:

  • release/static分支:这个分支曾用于静态图的开发与测试,目前兼容>=1.7版本的Paddle。如果有特殊需求,要适配旧版本的Paddle,那还可以使用这个分支,但除了修复bug外不再更新代码。
  • dygraph-dev分支:这个分支将不再维护,也不再接受新的代码,请使用的同学尽快迁移到develop分支。

PaddleClas欢迎大家向repo中积极贡献代码,下面给出一些贡献代码的基本流程。

2.2 PaddleClas代码提交流程与规范

2.2.1 fork和clone代码

  • 跳转到PaddleClas GitHub首页,然后单击 Fork 按钮,生成自己目录下的仓库,比如 https://github.com/USERNAME/PaddleClas
  • 将远程仓库clone到本地
# 拉取develop分支的代码
git clone https://github.com/USERNAME/PaddleClas.git -b develop
cd PaddleClas

clone的地址可以从下面获取

2.2.2 和远程仓库建立连接

首先通过git remote -v查看当前远程仓库的信息。

origin    https://github.com/USERNAME/PaddleClas.git (fetch)
origin    https://github.com/USERNAME/PaddleClas.git (push)

只有clone的远程仓库的信息,也就是自己用户名下的 PaddleClas,接下来我们创建一个原始 PaddleClas 仓库的远程主机,命名为 upstream。

git remote add upstream https://github.com/PaddlePaddle/PaddleClas.git

使用git remote -v查看当前远程仓库的信息,输出如下,发现包括了origin和upstream 2个远程仓库。

origin    https://github.com/USERNAME/PaddleClas.git (fetch)
origin    https://github.com/USERNAME/PaddleClas.git (push)
upstream    https://github.com/PaddlePaddle/PaddleClas.git (fetch)
upstream    https://github.com/PaddlePaddle/PaddleClas.git (push)

这主要是为了后续在提交pull request(PR)时,始终保持本地仓库最新。

2.2.3 创建本地分支

可以基于当前分支创建新的本地分支,命令如下。

git checkout -b new_branch

也可以基于远程或者上游的分支创建新的分支,命令如下。

# 基于用户远程仓库(origin)的develop创建new_branch分支
git checkout -b new_branch origin/develop
# 基于上游远程仓库(upstream)的develop创建new_branch分支
# 如果需要从upstream创建新的分支,需要首先使用git fetch upstream获取上游代码
git checkout -b new_branch upstream/develop

最终会显示切换到新的分支,输出信息如下

Branch new_branch set up to track remote branch develop from upstream.
Switched to a new branch 'new_branch'

2.2.4 使用pre-commit勾子

Paddle 开发人员使用 pre-commit 工具来管理 Git 预提交钩子。 它可以帮助我们格式化源代码(C++,Python),在提交(commit)前自动检查一些基本事宜(如每个文件只有一个 EOL,Git 中不要添加大文件等)。

pre-commit测试是 Travis-CI 中单元测试的一部分,不满足钩子的 PR 不能被提交到 PaddleClas,首先安装并在当前目录运行它:

pip install pre-commit
pre-commit install
  • 注意
  1. Paddle 使用 clang-format 来调整 C/C++ 源代码格式,请确保 clang-format 版本在 3.8 以上。
  2. 通过pip install pre-commit和conda install -c conda-forge pre-commit安装的yapf稍有不同的,PaddleClas 开发人员使用的是pip install pre-commit

2.2.5 修改与提交代码

可以通过git status查看改动的文件。 对PaddleClas的README.md做了一些修改,希望提交上去。则可以通过以下步骤

git add README.md
pre-commit

重复上述步骤,直到pre-comit格式检查不报错。如下所示。

使用下面的命令完成提交。

git commit -m "your commit info"

2.2.6 保持本地仓库最新

获取 upstream 的最新代码并更新当前分支。这里的upstream来自于2.2节的和远程仓库建立连接部分。

git fetch upstream
# 如果是希望提交到其他分支,则需要从upstream的其他分支pull代码,这里是develop
git pull upstream develop

2.2.7 push到远程仓库

git push origin new_branch

2.2.7 提交Pull Request

点击new pull request,选择本地分支和目标分支,如下图所示。在PR的描述说明中,填写该PR所完成的功能。接下来等待review,如果有需要修改的地方,参照上述步骤更新 origin 中的对应分支即可。

2.2.8 签署CLA协议和通过单元测试

  • 签署CLA 在首次向PaddlePaddle提交Pull Request时,您需要您签署一次CLA(Contributor License Agreement)协议,以保证您的代码可以被合入,具体签署方式如下:
  1. 请您查看PR中的Check部分,找到license/cla,并点击右侧detail,进入CLA网站
  2. 点击CLA网站中的“Sign in with GitHub to agree”,点击完成后将会跳转回您的Pull Request页面

2.2.9 删除分支

  • 删除远程分支

在 PR 被 merge 进主仓库后,我们可以在 PR 的页面删除远程仓库的分支。

也可以使用 git push origin :分支名 删除远程分支,如:

git push origin :new_branch
  • 删除本地分支
# 切换到develop分支,否则无法删除当前分支
git checkout develop

# 删除new_branch分支
git branch -D new_branch

2.2.10 提交代码的一些约定

为了使官方维护人员在评审代码时更好地专注于代码本身,请您每次提交代码时,遵守以下约定:

1)请保证Travis-CI 中单元测试能顺利通过。如果没过,说明提交的代码存在问题,官方维护人员一般不做评审。

2)提交PUll Request前:

请注意commit的数量。

原因:如果仅仅修改一个文件但提交了十几个commit,每个commit只做了少量的修改,这会给评审人带来很大困扰。评审人需要逐一查看每个commit才能知道做了哪些修改,且不排除commit之间的修改存在相互覆盖的情况。

建议:每次提交时,保持尽量少的commit,可以通过git commit --amend补充上次的commit。对已经Push到远程仓库的多个commit,可以参考squash commits after push

请注意每个commit的名称:应能反映当前commit的内容,不能太随意。

3)如果解决了某个Issue的问题,请在该PUll Request的第一个评论框中加上:fix #issue_number,这样当该PUll Request被合并后,会自动关闭对应的Issue。关键词包括:close, closes, closed, fix, fixes, fixed, resolve, resolves, resolved,请选择合适的词汇。详细可参考Closing issues via commit messages

此外,在回复评审人意见时,请您遵守以下约定:

1)官方维护人员的每一个review意见都希望得到回复,这样会更好地提升开源社区的贡献。

  • 对评审意见同意且按其修改完的,给个简单的Done即可;
  • 对评审意见不同意的,请给出您自己的反驳理由。

2)如果评审意见比较多,

  • 请给出总体的修改情况。
  • 请采用start a review进行回复,而非直接回复的方式。原因是每个回复都会发送一封邮件,会造成邮件灾难。

3. 总结

  • 开源社区依赖于众多开发者与用户的贡献和反馈,在这里感谢与期待大家向PaddleClas提出宝贵的意见与pull request,希望我们可以一起打造一个领先实用全面的图像分类代码仓库!

4. 参考文献

  1. PaddlePaddle本地开发指南
  2. 向开源框架提交pr的过程