diff --git a/docs/pipeline_deploy/edge_deploy.en.md b/docs/pipeline_deploy/edge_deploy.en.md
index 564accfe4f..11ead90c86 100644
--- a/docs/pipeline_deploy/edge_deploy.en.md
+++ b/docs/pipeline_deploy/edge_deploy.en.md
@@ -13,7 +13,7 @@ comments: true
- [Feedback Section](#feedback-section)
This guide mainly introduces the operation method of the PaddleX edge deployment demo on the Android shell.
-This guide applies to 8 models across 6 modules:
+This guide applies to 13 models across 7 modules:
@@ -57,17 +57,43 @@ This guide applies to 8 models across 6 modules:
✅ |
- Text Detection |
+ Text Line Orientation Classification |
+ PP-LCNet_x0_25_textline_ori |
+ ✅ |
+ ✅ |
+
+
+ Text Detection |
+ PP-OCRv5_mobile_det |
+ ✅ |
+ |
+
+
PP-OCRv4_mobile_det |
✅ |
|
- Text Recognition |
+ PP-OCRv3_mobile_det |
+ ✅ |
+ |
+
+
+ Text Recognition |
+ PP-OCRv5_mobile_rec |
+ ✅ |
+ |
+
+
PP-OCRv4_mobile_rec |
✅ |
|
+
+ PP-OCRv3_mobile_rec |
+ ✅ |
+ |
+
Note
@@ -290,17 +316,38 @@ This section describes the deployment steps applicable to the demos listed in th
MobileNetV3_small_x1_0MobileNetV3_small_x1_0_gpu |
- General OCR |
- ocr |
+ General OCR |
+ ocr |
Text Detection |
- ppocr_demo |
- PP-OCRv4_mobile_det |
- PP-OCRv4_mobile_det |
+ ppocr_demo |
+
+ PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det
+ |
+
+ PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det
+ |
+
+
+ Text Line Orientation Classification |
+ PP-LCNet_x0_25_textline_ori |
+ PP-LCNet_x0_25_textline_ori |
Text Recognition |
- PP-OCRv4_mobile_rec |
- PP-OCRv4_mobile_rec |
+
+ PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec
+ |
+
+ PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec
+ |
diff --git a/docs/pipeline_deploy/edge_deploy.md b/docs/pipeline_deploy/edge_deploy.md
index 4ffc556b27..fa30127574 100644
--- a/docs/pipeline_deploy/edge_deploy.md
+++ b/docs/pipeline_deploy/edge_deploy.md
@@ -13,7 +13,7 @@ comments: true
- [反馈专区](#反馈专区)
本指南主要介绍 PaddleX 端侧部署 demo 在 Android shell 上的运行方法。
-本指南适用于下列 6 种模块的 8 个模型:
+本指南适用于下列 7 种模块的 13 个模型:
@@ -57,17 +57,43 @@ comments: true
✅ |
- 文本检测 |
+ 文本行方向分类 |
+ PP-LCNet_x0_25_textline_ori |
+ ✅ |
+ ✅ |
+
+
+ 文本检测 |
+ PP-OCRv5_mobile_det |
+ ✅ |
+ |
+
+
PP-OCRv4_mobile_det |
✅ |
|
- 文本识别 |
+ PP-OCRv3_mobile_det |
+ ✅ |
+ |
+
+
+ 文本识别 |
+ PP-OCRv5_mobile_rec |
+ ✅ |
+ |
+
+
PP-OCRv4_mobile_rec |
✅ |
|
+
+ PP-OCRv3_mobile_rec |
+ ✅ |
+ |
+
备注
@@ -292,17 +318,38 @@ detection, image size: 768, 576, detect object: dog, score: 0.731584, location:
MobileNetV3_small_x1_0MobileNetV3_small_x1_0_gpu |
- 通用OCR |
- ocr |
+ 通用OCR |
+ ocr |
文本检测 |
- ppocr_demo |
- PP-OCRv4_mobile_det |
- PP-OCRv4_mobile_det |
+ ppocr_demo |
+
+ PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det
+ |
+
+ PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det
+ |
+
+
+ 文本行方向分类 |
+ PP-LCNet_x0_25_textline_ori |
+ PP-LCNet_x0_25_textline_ori |
文本识别 |
- PP-OCRv4_mobile_rec |
- PP-OCRv4_mobile_rec |
+
+ PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec
+ |
+
+ PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec
+ |
diff --git a/docs/pipeline_deploy/high_performance_inference.md b/docs/pipeline_deploy/high_performance_inference.md
index 92d2441c8e..9f31d61f2d 100644
--- a/docs/pipeline_deploy/high_performance_inference.md
+++ b/docs/pipeline_deploy/high_performance_inference.md
@@ -208,11 +208,11 @@ output = model.predict("https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/
#### 2.1.1 安全自动配置模式
-安全自动配置模式,具有保护机制,默认**自动选用当前环境性能较优的配置**。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。
+安全自动配置模式,具有保护机制,默认 **自动选用当前环境性能较优的配置** 。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。
#### 2.1.2 无限制手动配置模式
-无限制手动配置模式,提供完全的配置自由,可以**自由选择推理后端、修改后端配置等**,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。
+无限制手动配置模式,提供完全的配置自由,可以 **自由选择推理后端、修改后端配置等** ,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。
### 2.2 高性能推理配置
@@ -461,7 +461,7 @@ Predict:
### 2.4 在配置文件中启用/禁用高性能推理插件
-在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现**仅产线中的某个子产线/子模块使用高性能推理**。示例如下:
+在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现 **仅产线中的某个子产线/子模块使用高性能推理**。示例如下:
**通用OCR产线的 `text_detection` 模块使用高性能推理,`text_recognition` 模块不使用高性能推理:**
diff --git a/docs/pipeline_deploy/paddle2onnx.en.md b/docs/pipeline_deploy/paddle2onnx.en.md
index 11291833f6..56f7125140 100644
--- a/docs/pipeline_deploy/paddle2onnx.en.md
+++ b/docs/pipeline_deploy/paddle2onnx.en.md
@@ -5,6 +5,10 @@ The Paddle2ONNX plugin for PaddleX provides the ability to convert PaddlePaddle
## 1. Installation
```bash
+# Windows users need to use the following command to install the dev version of paddlepaddle
+# python -m pip install --pre paddlepaddle -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
+
+# Install Paddle2ONNX plugin
paddlex --install paddle2onnx
```
diff --git a/docs/pipeline_deploy/paddle2onnx.md b/docs/pipeline_deploy/paddle2onnx.md
index 84255f15e3..957a1d24cb 100644
--- a/docs/pipeline_deploy/paddle2onnx.md
+++ b/docs/pipeline_deploy/paddle2onnx.md
@@ -6,6 +6,10 @@ PaddleX 的 Paddle2ONNX 插件提供了将飞桨静态图模型转化到 ONNX
## 1. 安装
```bash
+# Windows 用户需使用以下命令安装 paddlepaddle dev版本
+# python -m pip install --pre paddlepaddle -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/
+
+# 安装 Paddle2ONNX 插件
paddlex --install paddle2onnx
```
diff --git a/mkdocs.yml b/mkdocs.yml
index 4226a8e8ab..09adf01030 100644
--- a/mkdocs.yml
+++ b/mkdocs.yml
@@ -186,6 +186,7 @@ plugins:
高性能推理: High Performance Inference
服务化部署: Serving
端侧部署: Edge Deployment
+ 获取 ONNX 模型: Obtaining ONNX Models
多硬件使用: Multi-Device Usage
多硬件使用指南: Multi-Device Usage Guide
飞桨多硬件安装: PaddlePaddle Installation on Multiple Devices