diff --git a/docs/pipeline_deploy/edge_deploy.en.md b/docs/pipeline_deploy/edge_deploy.en.md index 564accfe4f..11ead90c86 100644 --- a/docs/pipeline_deploy/edge_deploy.en.md +++ b/docs/pipeline_deploy/edge_deploy.en.md @@ -13,7 +13,7 @@ comments: true - [Feedback Section](#feedback-section) This guide mainly introduces the operation method of the PaddleX edge deployment demo on the Android shell. -This guide applies to 8 models across 6 modules: +This guide applies to 13 models across 7 modules: @@ -57,17 +57,43 @@ This guide applies to 8 models across 6 modules: - + + + + + + + + + + + + - + + + + + + + + + + + + + + + +
Text DetectionText Line Orientation ClassificationPP-LCNet_x0_25_textline_ori
Text DetectionPP-OCRv5_mobile_det
PP-OCRv4_mobile_det
Text RecognitionPP-OCRv3_mobile_det
Text RecognitionPP-OCRv5_mobile_rec
PP-OCRv4_mobile_rec
PP-OCRv3_mobile_rec
Note @@ -290,17 +316,38 @@ This section describes the deployment steps applicable to the demos listed in th MobileNetV3_small_x1_0
MobileNetV3_small_x1_0_gpu - General OCR - ocr + General OCR + ocr Text Detection - ppocr_demo - PP-OCRv4_mobile_det - PP-OCRv4_mobile_det + ppocr_demo + + PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det + + + PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det + + + + Text Line Orientation Classification + PP-LCNet_x0_25_textline_ori + PP-LCNet_x0_25_textline_ori Text Recognition - PP-OCRv4_mobile_rec - PP-OCRv4_mobile_rec + + PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec + + + PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec + diff --git a/docs/pipeline_deploy/edge_deploy.md b/docs/pipeline_deploy/edge_deploy.md index 4ffc556b27..fa30127574 100644 --- a/docs/pipeline_deploy/edge_deploy.md +++ b/docs/pipeline_deploy/edge_deploy.md @@ -13,7 +13,7 @@ comments: true - [反馈专区](#反馈专区) 本指南主要介绍 PaddleX 端侧部署 demo 在 Android shell 上的运行方法。 -本指南适用于下列 6 种模块的 8 个模型: +本指南适用于下列 7 种模块的 13 个模型: @@ -57,17 +57,43 @@ comments: true - + + + + + + + + + + + + - + + + + + + + + + + + + + + + +
文本检测文本行方向分类PP-LCNet_x0_25_textline_ori
文本检测PP-OCRv5_mobile_det
PP-OCRv4_mobile_det
文本识别PP-OCRv3_mobile_det
文本识别PP-OCRv5_mobile_rec
PP-OCRv4_mobile_rec
PP-OCRv3_mobile_rec
备注 @@ -292,17 +318,38 @@ detection, image size: 768, 576, detect object: dog, score: 0.731584, location: MobileNetV3_small_x1_0
MobileNetV3_small_x1_0_gpu - 通用OCR - ocr + 通用OCR + ocr 文本检测 - ppocr_demo - PP-OCRv4_mobile_det - PP-OCRv4_mobile_det + ppocr_demo + + PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det + + + PP-OCRv5_mobile_det
+ PP-OCRv4_mobile_det
+ PP-OCRv3_mobile_det + + + + 文本行方向分类 + PP-LCNet_x0_25_textline_ori + PP-LCNet_x0_25_textline_ori 文本识别 - PP-OCRv4_mobile_rec - PP-OCRv4_mobile_rec + + PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec + + + PP-OCRv5_mobile_rec
+ PP-OCRv4_mobile_rec
+ PP-OCRv3_mobile_rec + diff --git a/docs/pipeline_deploy/high_performance_inference.md b/docs/pipeline_deploy/high_performance_inference.md index 92d2441c8e..9f31d61f2d 100644 --- a/docs/pipeline_deploy/high_performance_inference.md +++ b/docs/pipeline_deploy/high_performance_inference.md @@ -208,11 +208,11 @@ output = model.predict("https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/ #### 2.1.1 安全自动配置模式 -安全自动配置模式,具有保护机制,默认**自动选用当前环境性能较优的配置**。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。 +安全自动配置模式,具有保护机制,默认 **自动选用当前环境性能较优的配置** 。在这种模式下,用户可以覆盖默认配置,但用户提供的配置将受到检查,PaddleX将根据先验知识拒绝不可用的配置。这是默认的工作模式。 #### 2.1.2 无限制手动配置模式 -无限制手动配置模式,提供完全的配置自由,可以**自由选择推理后端、修改后端配置等**,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。 +无限制手动配置模式,提供完全的配置自由,可以 **自由选择推理后端、修改后端配置等** ,但无法保证推理一定成功。此模式适合有经验和对推理后端及其配置有明确需求的用户,建议在熟悉高性能推理的情况下使用。 ### 2.2 高性能推理配置 @@ -461,7 +461,7 @@ Predict: ### 2.4 在配置文件中启用/禁用高性能推理插件 -在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现**仅产线中的某个子产线/子模块使用高性能推理**。示例如下: +在配置文件中,可以使用 `use_hpip` 控制高性能推理插件的启用和禁用。与通过 CLI 和 API 配置不同的是,这种方式支持通过在子产线/子模块级别使用 `use_hpip`,实现 **仅产线中的某个子产线/子模块使用高性能推理**。示例如下: **通用OCR产线的 `text_detection` 模块使用高性能推理,`text_recognition` 模块不使用高性能推理:** diff --git a/docs/pipeline_deploy/paddle2onnx.en.md b/docs/pipeline_deploy/paddle2onnx.en.md index 11291833f6..56f7125140 100644 --- a/docs/pipeline_deploy/paddle2onnx.en.md +++ b/docs/pipeline_deploy/paddle2onnx.en.md @@ -5,6 +5,10 @@ The Paddle2ONNX plugin for PaddleX provides the ability to convert PaddlePaddle ## 1. Installation ```bash +# Windows users need to use the following command to install the dev version of paddlepaddle +# python -m pip install --pre paddlepaddle -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/ + +# Install Paddle2ONNX plugin paddlex --install paddle2onnx ``` diff --git a/docs/pipeline_deploy/paddle2onnx.md b/docs/pipeline_deploy/paddle2onnx.md index 84255f15e3..957a1d24cb 100644 --- a/docs/pipeline_deploy/paddle2onnx.md +++ b/docs/pipeline_deploy/paddle2onnx.md @@ -6,6 +6,10 @@ PaddleX 的 Paddle2ONNX 插件提供了将飞桨静态图模型转化到 ONNX ## 1. 安装 ```bash +# Windows 用户需使用以下命令安装 paddlepaddle dev版本 +# python -m pip install --pre paddlepaddle -i https://www.paddlepaddle.org.cn/packages/nightly/cpu/ + +# 安装 Paddle2ONNX 插件 paddlex --install paddle2onnx ``` diff --git a/mkdocs.yml b/mkdocs.yml index 4226a8e8ab..09adf01030 100644 --- a/mkdocs.yml +++ b/mkdocs.yml @@ -186,6 +186,7 @@ plugins: 高性能推理: High Performance Inference 服务化部署: Serving 端侧部署: Edge Deployment + 获取 ONNX 模型: Obtaining ONNX Models 多硬件使用: Multi-Device Usage 多硬件使用指南: Multi-Device Usage Guide 飞桨多硬件安装: PaddlePaddle Installation on Multiple Devices