Skip to content

Latest commit

 

History

History
61 lines (37 loc) · 2 KB

train_group.md

File metadata and controls

61 lines (37 loc) · 2 KB

cfg.TRAIN

TRAIN Group存放所有和训练相关的配置

MODEL_SAVE_DIR

在训练周期内定期保存模型的主目录

默认值

无(需要用户自己填写)



PRETRAINED_MODEL_DIR

预训练模型路径

默认值

注意事项

  • 若未指定该字段,则模型会随机初始化所有的参数,从头开始训练

  • 若指定了该字段,但是路径不存在,则参数加载失败,仍然会被随机初始化

  • 若指定了该字段,且路径存在,但是部分参数不存在或者shape无法对应,则该部分参数随机初始化



RESUME_MODEL_DIR

从指定路径中恢复参数并继续训练

默认值

注意事项

  • RESUME_MODEL_DIR存在时,PaddleSeg会恢复到上一次训练的最近一个epoch,并且恢复训练过程中的临时变量(如已经衰减过的学习率,Optimizer的动量数据等),PRETRAINED_MODEL路径的最后一个目录必须为int数值或者字符串final,PaddleSeg会将int数值作为当前起始EPOCH继续训练,若目录为final,则不会继续训练。若目录不满足上述条件,PaddleSeg会抛出错误。


SYNC_BATCH_NORM

是否在多卡间同步BN的均值和方差。

Synchronized Batch Norm跨GPU批归一化策略最早在MegDet: A Large Mini-Batch Object Detector 论文中提出,在Bag of Freebies for Training Object Detection Neural Networks论文中以Yolov3验证了这一策略的有效性。

PaddleSeg基于PaddlePaddle框架的sync_batch_norm策略,可以支持通过多卡实现大batch size的分割模型训练,可以得到更高的mIoU精度。

默认值

False

注意事项

  • 打开该选项会带来一定的性能消耗(多卡间同步数据导致)

  • 仅在GPU多卡训练时该开关有效(Windows不支持多卡训练,因此无需打开该开关)

  • GPU多卡训练时,建议开启该开关,可以提升模型的训练效果