Skip to content

Latest commit

 

History

History
139 lines (120 loc) · 6.08 KB

README.md

File metadata and controls

139 lines (120 loc) · 6.08 KB

PaddleSeg高性能全场景模型部署方案—FastDeploy

目录

1. FastDeploy介绍

⚡️FastDeploy是一款全场景易用灵活极致高效的AI推理部署工具,支持云边端部署。使用FastDeploy可以简单高效的在X86 CPU、NVIDIA GPU、飞腾CPU、ARM CPU、Intel GPU、昆仑、昇腾、瑞芯微、晶晨、算能等10+款硬件上对PaddleSeg模型进行快速部署,并且支持Paddle Inference、Paddle Lite、TensorRT、OpenVINO、ONNXRuntime、RKNPU2、SOPHGO等多种推理后端。

2. 语义分割模型部署

2.1 硬件支持列表

硬件类型 该硬件是否支持 使用指南 Python C++
X86 CPU 链接
NVIDIA GPU 链接
飞腾CPU 链接
ARM CPU 链接
Intel GPU(集成显卡) 链接
Intel GPU(独立显卡) 链接
昆仑 链接
昇腾 链接
瑞芯微 链接
晶晨 链接 --
算能 链接

2.2. 详细使用文档

2.3 更多部署方式

3. Matting模型部署

3.1 硬件支持列表

硬件类型 该硬件是否支持 使用指南 Python C++
X86 CPU 链接
NVIDIA GPU 链接
飞腾CPU 链接
ARM CPU 链接
Intel GPU(集成显卡) 链接
Intel GPU(独立显卡) 链接
昆仑 链接
昇腾 链接

3.2 详细使用文档

4. 常见问题

遇到问题可查看常见问题集合,搜索FastDeploy issue,或给FastDeploy提交issue:

常见问题集合
FastDeploy issues