本 repo 用于公开 PaddlePaddle 开源实现的各个学术界、工业界前沿模型,在训练期间的性能数据,同时提供了各模型性能测试的详细复现流程,以供参考。
同时,我们也在相同的硬件执行环境下,按照业内其它知名深度学习框架公开的代码和教程,测试了对应模型的性能数据,并记录具体日志和数据。
目前我们公开了计算机视觉和自然语言处理领域的两个典型模型的性能对比数据:
我们将持续开展性能测试工作,后续将逐步公开更多性能数据,敬请期待。
我们选择了 NGC 优化后的 TensorFlow、PyTorch、MxNet,作为性能的参考。
对这些框架的性能测试,我们选用相同的物理机执行,并严格参照各框架官网公布的测试方法进行复现。
2. NGC PyTorch
3. NGC MxNet
说明:
- 本次测试选用
8 * V100-SXM2-16GB
物理机做单机单卡、单机8卡测试;选用4台8 * V100-SXM2-32GB
物理机做32卡测试。 - 测试中,我们尽可能复现不同框架的最好性能,因此以下测试结果默认打开了各个框架的各种加速功能/选项,如:
- 对于支持
DALI/XLA
的框架,以下测试为开启DALI/XLA
的数据
- 对于支持
-
单位:
images/sec
-
FP32测试
参数 PaddlePaddle NGC TensorFlow 1.15 NGC PyTorch NGC MXNet GPU=1,BS=256 389.12 414.73 363.77 380.55 GPU=8,BS=256 2946.3 3275.93 2787.43 3002.8 GPU=32,BS=256 10984.436 12671.9 10523.32 - -
AMP测试
参数 PaddlePaddle NGC TensorFlow 1.15 NGC PyTorch NGC MXNet GPU=1,BS=256 1444.94 1173.38 773.30 1359.4 GPU=8,BS=256 10649.9 9310.31 5811.26 10494 GPU=32,BS=256 39972.13 33317.67 21259.81 - 关于torch数据,按照官方文档反复重测了多次未达到官方的标准。若了解相关原因,欢迎issue我们。
-
max_seq_len:
128
-
单位:
sequences/sec
-
FP32测试
参数 PaddlePaddle NGC TensorFlow 1.15 NGC PyTorch GPU=1,BS=96 161.15 156.33 153.56 GPU=8,BS=96 1288.50 1231.74 1228.24 GPU=32,BS=96 4829.90 4238.5 3496.94 -
AMP测试
参数 PaddlePaddle NGC TensorFlow 1.15 NGC PyTorch GPU=1,BS=96 653.97 530.28 630.61 GPU=8,BS=96 5234.17 4181.32 5044.04 GPU=32,BS=96 20054.43 16142.9 16610.6