diff --git a/tests/test_tipc/README.md b/tests/test_tipc/README.md
index 6a9dcc5c59a0..3b73a2f36f44 100644
--- a/tests/test_tipc/README.md
+++ b/tests/test_tipc/README.md
@@ -2,7 +2,7 @@
## 1. 简介
-飞桨除了基本的模型训练和预测,还提供了支持多端多平台的高性能推理部署工具。本文档提供了PaddleNLP中部分模型的飞桨训推一体认证 (Training and Inference Pipeline Certification(TIPC)) 信息和测试工具,方便用户查阅每种模型的训练推理部署打通情况,并可以进行一键测试。
+飞桨除了基本的模型训练和预测,还提供了支持多端多平台的高性能推理部署工具。本文档提供了 PaddleNLP 中部分模型的飞桨训推一体认证 (Training and Inference Pipeline Certification(TIPC)) 信息和测试工具,方便用户查阅每种模型的训练推理部署打通情况,并可以进行一键测试。
## 2. 汇总信息
@@ -10,10 +10,10 @@
打通情况汇总如下,已填写的部分表示可以使用本工具进行一键测试,未填写的表示正在支持中。
**字段说明:**
-- 基础训练预测:包括模型单机单卡训练、单机多卡训练以及Paddle Inference Python预测。
+- 基础训练预测:包括模型单机单卡训练、单机多卡训练以及 Paddle Inference Python 预测。
- 更多训练方式:包括多机多卡、混合精度。
-更详细的MKLDNN、TensorRT等预测加速相关功能的支持情况可以查看各测试工具的[更多教程](#more)。
+更详细的 MKLDNN、TensorRT 等预测加速相关功能的支持情况可以查看各测试工具的[更多教程](#more)。
| 模型名称 | 模型类型 | 基础
训练预测 | 更多
训练方式 | 模型压缩 |
| :--- | :----: | :--------: | :---- | :---- |
@@ -55,19 +55,20 @@ test_tipc/
使用本工具,可以测试不同功能的支持情况,以及预测结果是否对齐,测试流程概括如下:
-1. 运行prepare.sh准备测试所需数据和模型;
-2. 运行要测试的功能对应的测试脚本`test_train_inference_python.sh`,产出log,由log可以看到不同配置是否运行成功;
-3. 用`compare_results.py`对比log中的预测结果和预存在results目录下的结果,判断预测精度是否符合预期(在误差范围内)。
+1. 运行 prepare.sh 准备测试所需数据和模型;
+2. 运行要测试的功能对应的测试脚本`test_train_inference_python.sh`,产出 log,由 log 可以看到不同配置是否运行成功;
+3. 用`compare_results.py`对比 log 中的预测结果和预存在 results 目录下的结果,判断预测精度是否符合预期(在误差范围内)。
-测试单项功能仅需两行命令,**如需测试不同模型/功能,替换配置文件即可**,命令格式如下:
+测试前需要根据[基础训练预测使用文档](docs/test_train_inference_python.md)安装依赖。
+测试单项功能仅需两行命令,**如需测试不同模型/功能,替换配置文件即可**,需要在 ```tests```目录下运行,命令格式如下:
```shell
# 功能:准备数据
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
-bash test_tipc/prepare.sh configs/[model_name]/[params_file_name] [Mode]
+bash ./test_tipc/prepare.sh ./test_tipc/configs/[model_name]/[params_file_name] [Mode]
# 功能:运行测试
# 格式:bash + 运行脚本 + 参数1: 配置文件选择 + 参数2: 模式选择
-bash test_tipc/test_train_inference_python.sh configs/[model_name]/[params_file_name] [Mode]
+bash ./test_tipc/test_train_inference_python.sh ./test_tipc/configs/[model_name]/[params_file_name] [Mode]
```
例如,测试基本训练预测功能的`lite_train_lite_infer`模式,运行:
@@ -82,5 +83,5 @@ bash test_tipc/test_train_inference_python.sh ./test_tipc/configs/bigru_crf/trai
## 4. 开始测试
-各功能测试中涉及MKLDNN、TensorRT等多种预测相关参数配置,请点击下方相应链接了解更多细节和使用教程:
-- [test_train_inference_python 使用](docs/test_train_inference_python.md) :测试基于Python的模型训练、推理等基本功能。
+各功能测试中涉及 MKLDNN、TensorRT 等多种预测相关参数配置,请点击下方相应链接了解更多细节和使用教程:
+- [test_train_inference_python 使用](docs/test_train_inference_python.md) :测试基于 Python 的模型训练、推理等基本功能。
diff --git a/tests/test_tipc/bert_base_text_cls/predict.py b/tests/test_tipc/bert_base_text_cls/predict.py
index 45111a5bc716..ed6e3c6769c3 100644
--- a/tests/test_tipc/bert_base_text_cls/predict.py
+++ b/tests/test_tipc/bert_base_text_cls/predict.py
@@ -23,6 +23,10 @@
from paddlenlp.data import Pad, Tuple
from paddlenlp.datasets import load_dataset
from paddlenlp.transformers import AutoTokenizer
+from paddlenlp.utils.env import (
+ PADDLE_INFERENCE_MODEL_SUFFIX,
+ PADDLE_INFERENCE_WEIGHTS_SUFFIX,
+)
from paddlenlp.utils.log import logger
@@ -95,8 +99,8 @@ def __init__(
self.batch_size = batch_size
self.benchmark = benchmark
- model_file = os.path.join(model_dir, "inference.pdmodel")
- params_file = os.path.join(model_dir, "inference.pdiparams")
+ model_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_MODEL_SUFFIX}")
+ params_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_WEIGHTS_SUFFIX}")
if not os.path.exists(model_file):
raise ValueError("not find model file path {}".format(model_file))
if not os.path.exists(params_file):
diff --git a/tests/test_tipc/bigru_crf/deploy/predict.py b/tests/test_tipc/bigru_crf/deploy/predict.py
index 66e5c2ed2055..439fd80a2cb2 100644
--- a/tests/test_tipc/bigru_crf/deploy/predict.py
+++ b/tests/test_tipc/bigru_crf/deploy/predict.py
@@ -19,6 +19,10 @@
from paddle import inference
from paddlenlp.data import Pad, Stack, Tuple
+from paddlenlp.utils.env import (
+ PADDLE_INFERENCE_MODEL_SUFFIX,
+ PADDLE_INFERENCE_WEIGHTS_SUFFIX,
+)
from paddlenlp.utils.log import logger
parser = argparse.ArgumentParser(__doc__)
@@ -153,8 +157,8 @@ def __init__(
):
self.max_seq_length = max_seq_length
self.batch_size = batch_size
- model_file = os.path.join(model_dir, "inference.pdmodel")
- params_file = os.path.join(model_dir, "inference.pdiparams")
+ model_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_MODEL_SUFFIX}")
+ params_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_WEIGHTS_SUFFIX}")
if not os.path.exists(model_file):
raise ValueError("not find model file path {}".format(model_file))
if not os.path.exists(params_file):
diff --git a/tests/test_tipc/configs/bigru_crf/train_infer_python.txt b/tests/test_tipc/configs/bigru_crf/train_infer_python.txt
index e6c90f54b5e8..fc9a7eacc36c 100644
--- a/tests/test_tipc/configs/bigru_crf/train_infer_python.txt
+++ b/tests/test_tipc/configs/bigru_crf/train_infer_python.txt
@@ -1,6 +1,6 @@
===========================train_params===========================
model_name:bigru_crf
-python:python3.7
+python:python
gpu_list:0|0,1
--device:gpu|gpu
null:null
diff --git a/tests/test_tipc/configs/bigru_crf/train_mac_cpu_normal_normal_infer_python_mac_cpu.txt b/tests/test_tipc/configs/bigru_crf/train_mac_cpu_normal_normal_infer_python_mac_cpu.txt
index 66b677983b34..8429f2c294db 100644
--- a/tests/test_tipc/configs/bigru_crf/train_mac_cpu_normal_normal_infer_python_mac_cpu.txt
+++ b/tests/test_tipc/configs/bigru_crf/train_mac_cpu_normal_normal_infer_python_mac_cpu.txt
@@ -1,6 +1,6 @@
===========================train_params===========================
model_name:bigru_crf
-python:python3.7
+python:python
gpu_list:-1
--device:cpu
Global.auto_cast:null
diff --git a/tests/test_tipc/configs/bigru_crf/train_windows_gpu_normal_normal_infer_python_windows_cpu_gpu.txt b/tests/test_tipc/configs/bigru_crf/train_windows_gpu_normal_normal_infer_python_windows_cpu_gpu.txt
index d6958563f758..feb69de9cdbb 100644
--- a/tests/test_tipc/configs/bigru_crf/train_windows_gpu_normal_normal_infer_python_windows_cpu_gpu.txt
+++ b/tests/test_tipc/configs/bigru_crf/train_windows_gpu_normal_normal_infer_python_windows_cpu_gpu.txt
@@ -1,6 +1,6 @@
===========================train_params===========================
model_name:bigru_crf
-python:python3.7
+python:python
gpu_list:0
--device:gpu
Global.auto_cast:null
diff --git a/tests/test_tipc/ernie_information_extraction/predict.py b/tests/test_tipc/ernie_information_extraction/predict.py
index 38d6a34c6b79..f8f241839f6f 100644
--- a/tests/test_tipc/ernie_information_extraction/predict.py
+++ b/tests/test_tipc/ernie_information_extraction/predict.py
@@ -22,6 +22,10 @@
from paddlenlp.data import Pad, Stack, Tuple
from paddlenlp.datasets import load_dataset
from paddlenlp.transformers import ErnieTokenizer
+from paddlenlp.utils.env import (
+ PADDLE_INFERENCE_MODEL_SUFFIX,
+ PADDLE_INFERENCE_WEIGHTS_SUFFIX,
+)
from paddlenlp.utils.log import logger
@@ -128,8 +132,8 @@ def __init__(
self.batch_size = batch_size
self.benchmark = benchmark
- model_file = os.path.join(model_dir, "inference.pdmodel")
- params_file = os.path.join(model_dir, "inference.pdiparams")
+ model_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_MODEL_SUFFIX}")
+ params_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_WEIGHTS_SUFFIX}")
if not os.path.exists(model_file):
raise ValueError("not find model file path {}".format(model_file))
if not os.path.exists(params_file):
diff --git a/tests/test_tipc/ernie_text_cls/predict.py b/tests/test_tipc/ernie_text_cls/predict.py
index dd220b85938b..c7efc5cdff8b 100644
--- a/tests/test_tipc/ernie_text_cls/predict.py
+++ b/tests/test_tipc/ernie_text_cls/predict.py
@@ -23,6 +23,10 @@
from paddlenlp.data import Pad, Tuple
from paddlenlp.datasets import load_dataset
from paddlenlp.transformers import AutoTokenizer
+from paddlenlp.utils.env import (
+ PADDLE_INFERENCE_MODEL_SUFFIX,
+ PADDLE_INFERENCE_WEIGHTS_SUFFIX,
+)
from paddlenlp.utils.log import logger
@@ -95,8 +99,8 @@ def __init__(
self.batch_size = batch_size
self.benchmark = benchmark
- model_file = os.path.join(model_dir, "inference.pdmodel")
- params_file = os.path.join(model_dir, "inference.pdiparams")
+ model_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_MODEL_SUFFIX}")
+ params_file = os.path.join(model_dir, f"inference{PADDLE_INFERENCE_WEIGHTS_SUFFIX}")
if not os.path.exists(model_file):
raise ValueError("not find model file path {}".format(model_file))
if not os.path.exists(params_file):