Skip to content

update edge deployment docs #4126

New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Open
wants to merge 1 commit into
base: develop
Choose a base branch
from
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
32 changes: 29 additions & 3 deletions docs/pipeline_deploy/edge_deploy.en.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,7 +13,7 @@ comments: true
- [Feedback Section](#feedback-section)

This guide mainly introduces the operation method of the PaddleX edge deployment demo on the Android shell.
This guide applies to 8 models across 6 modules:
This guide applies to 13 models across 7 modules:

<table>
<tr>
Expand Down Expand Up @@ -57,17 +57,43 @@ This guide applies to 8 models across 6 modules:
<td>✅</td>
</tr>
<tr>
<td>Text Detection</td>
<td>Text Line Orientation Classification</td>
<td>PP-LCNet_x0_25_textline_ori</td>
<td>✅</td>
<td>✅</td>
</tr>
<tr>
<td rowspan="3">Text Detection</td>
<td>PP-OCRv5_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv4_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>Text Recognition</td>
<td>PP-OCRv3_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td rowspan="3">Text Recognition</td>
<td>PP-OCRv5_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv4_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv3_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
</table>

<b>Note</b>
Expand Down
32 changes: 29 additions & 3 deletions docs/pipeline_deploy/edge_deploy.md
Original file line number Diff line number Diff line change
Expand Up @@ -13,7 +13,7 @@ comments: true
- [反馈专区](#反馈专区)

本指南主要介绍 PaddleX 端侧部署 demo 在 Android shell 上的运行方法。
本指南适用于下列 6 种模块的 8 个模型:
本指南适用于下列 7 种模块的 13 个模型:

<table>
<tr>
Expand Down Expand Up @@ -57,17 +57,43 @@ comments: true
<td>✅</td>
</tr>
<tr>
<td>文本检测</td>
<td>文本行方向分类</td>
<td>PP-LCNet_x0_25_textline_ori</td>
<td>✅</td>
<td>✅</td>
</tr>
<tr>
<td rowspan="3">文本检测</td>
<td>PP-OCRv5_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv4_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>文本识别</td>
<td>PP-OCRv3_mobile_det</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td rowspan="3">文本识别</td>
<td>PP-OCRv5_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv4_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
<tr>
<td>PP-OCRv3_mobile_rec</td>
<td>✅</td>
<td></td>
</tr>
</table>

<b>备注</b>
Expand Down
6 changes: 3 additions & 3 deletions docs/pipeline_deploy/high_performance_inference.md
Original file line number Diff line number Diff line change
Expand Up @@ -208,11 +208,11 @@ output = model.predict("https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/

#### 2.1.1 安全自动配置模式

安全自动配置模式,具有保护机制,默认**自动选用当前环境性能较优的配置**。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。
安全自动配置模式,具有保护机制,默认 **自动选用当前环境性能较优的配置** 。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。

#### 2.1.2 无限制手动配置模式

无限制手动配置模式,提供完全的配置自由,可以**自由选择推理后端、修改后端配置等**,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。
无限制手动配置模式,提供完全的配置自由,可以 **自由选择推理后端、修改后端配置等** ,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。

### 2.2 高性能推理配置

Expand Down Expand Up @@ -461,7 +461,7 @@ Predict:

### 2.4 在配置文件中启用/禁用高性能推理插件

在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现**仅产线中的某个子产线/子模块使用高性能推理**。示例如下:
在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现 **仅产线中的某个子产线/子模块使用高性能推理**。示例如下:

**通用OCR产线的 `text_detection` 模块使用高性能推理,`text_recognition` 模块不使用高性能推理:**

Expand Down
1 change: 1 addition & 0 deletions mkdocs.yml
Original file line number Diff line number Diff line change
Expand Up @@ -186,6 +186,7 @@ plugins:
高性能推理: High Performance Inference
服务化部署: Serving
端侧部署: Edge Deployment
获取 ONNX 模型: Obtaining ONNX Models
多硬件使用: Multi-Device Usage
多硬件使用指南: Multi-Device Usage Guide
飞桨多硬件安装: PaddlePaddle Installation on Multiple Devices
Expand Down