0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

使用OpenVINO将PP-OCRv5模型部署在Intel显卡上

jf_23871869 来源:jf_23871869 2025-09-20 11:17 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

作者:英特尔创新大使刘力

上文介绍了《一键搞定!PP-OCRv5模型转ONNX格式全攻略》,本文将使用OpenVINO™工具套件在Intel® CPU、独立显卡、集成显卡上优化并部署飞桨PP-OCRv5模型。

一,OpenVINO™工具套件简介

OpenVINO™工具套件

是一个用于优化和部署人工智能AI)模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网络(CNN)为核心组件的预测式AI模型(Predictive AI),还支持以Transformer为核心组件的生成式AI模型(Generative AI)。

OpenVINO™工具套件支持直接读取并优化PaddlePaddle训练好的模型(*.pdmodel)或者ONNX格式模型(*.onnx),

提升其在英特尔® CPU、独立显卡、集成显卡、NPU等硬件上的AI推理计算性能。

二,安装英特尔显卡驱动

参考链接:https://dgpu-docs.intel.com/driver/client/overview.html,在Ubuntu下完成英特尔显卡驱动安装。

三,搭建开发环境

首先,请克隆PP-OCRv5_OpenVINO到本地:

git clone https://github.com/openvino-book/PP-OCRv5_OpenVINO.git
cd PP-OCRv5_OpenVINO
wKgZO2jNYzyAJxQqAAPmqLX01Sk553.png

接着,创建并激活虚拟环境ppocrv5_ov,并安装所有依赖项。

conda create -n ppocrv5_ov python=3.11
conda activate ppocrv5_ov
pip install -r requirements.txt
wKgZO2jNY2aAFG4vAAY4Sxh9PJQ509.png

四,下载并导出PP-OCRv5 ONNX格式模型

请按《一键搞定!PP-OCRv5模型转ONNX格式全攻略》所示,下载并导出PP-OCRv5 ONNX格式模型到PP-OCRv5_OpenVINO文件夹。

五,编写PP-OCRv5推理程序

PP-OCRv5_OpenVINO项目已将推理程序编写完成,各文件功能如下:

wKgZPGjNY32AA-YaAAUuFxyzI4Y919.png

执行演示程序main.py,并指定模型路径和推理硬件设备:

python main.py --image_dir images/handwrite_en_demo.png 
--det_model_dir PP-OCRv5_server_det_onnx/inference.onnx 
--det_model_device CPU 
--rec_model_dir PP-OCRv5_server_rec_onnx/inference.onnx 
--rec_model_device CPU

运行结果,如下图所示:

wKgZO2jNY72Ac9RLAAeoxZmc-wc907.png

六,总结

开发者可以通过OpenVINO™工具套件将PP-OCRv5模型部署到Intel的CPU、独立显卡或集成显卡上。

如果你有更好的文章,欢迎投稿!

稿件接收邮箱:nami.liu@pasuntech.com

更多精彩内容请关注“算力魔方®”!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    61

    文章

    10275

    浏览量

    179247
  • 显卡
    +关注

    关注

    16

    文章

    2517

    浏览量

    71030
  • OpenVINO
    +关注

    关注

    0

    文章

    117

    浏览量

    715
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    基于C#和OpenVINO英特尔独立显卡部署PP-TinyPose模型

    OpenVINO PP-TinyPose 模型部署英特尔独立
    的头像 发表于 11-18 18:27 3457次阅读

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和边界。本文介绍如何使用 OpenVINO C++ API 部署 FastSAM 模型,以实现快速高效的语义分割。在前文中我们发表了《基于
    的头像 发表于 11-17 09:53 1657次阅读
    如何使用<b class='flag-5'>OpenVINO</b> C++ API<b class='flag-5'>部署</b>FastSAM<b class='flag-5'>模型</b>

    使用OpenVINO C# API轻松部署飞桨PP-OCRv4模型

    ?本文从零开始详细介绍整个过程。 一,什么是PP-OCRv4模型?   PP-OCRv4是 PaddleOCR工具库 的PP-OCR系列模型
    的头像 发表于 02-12 10:42 2010次阅读
    使用<b class='flag-5'>OpenVINO</b> C# API轻松<b class='flag-5'>部署</b>飞桨<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    如何在C#中部署飞桨PP-OCRv4模型

    《超4万6千星的开源OCR黑马登场,PaddleOCR凭什么脱颖而出?》收到了读者热烈反响c,很多读者提出:如何在C#中部署飞桨PP-OCRv4模型?本文从零开始详细介绍整个过程。
    的头像 发表于 02-17 10:58 2640次阅读
    如何在C#中<b class='flag-5'>部署</b>飞桨<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    使用OpenVINO优化并部署飞桨PP-OCRv4模型

    算法,在此基础打造产业级特色模型系列:PP-OCR、PP-Structure和PP-ChatOCR,打通了
    的头像 发表于 04-03 18:07 2230次阅读
    使用<b class='flag-5'>OpenVINO</b>优化并<b class='flag-5'>部署</b>飞桨<b class='flag-5'>PP-OCRv</b>4<b class='flag-5'>模型</b>

    用ROCm部署PP-StructureV3到AMD GPU

    -StructureV3模型部署方案。该方案是对前文PP-OCRv5部署实践的深化与扩展。 一,RapidDoc系统概述 RapidDoc 是一个专精于文档智能解析的轻量级开源框架,集
    的头像 发表于 11-13 16:56 5198次阅读
    用ROCm<b class='flag-5'>部署</b><b class='flag-5'>PP</b>-StructureV3到AMD GPU<b class='flag-5'>上</b>

    【EASY EAI Orin Nano开发板试用体验】PP-OCRV5文字识别实例搭建与移植

    【EASY EAI Orin Nano开发板试用体验】PP-OCRV5文字识别实例搭建与移植 PP-OCRV5PP-OCR新一代文字识别解决方案, 该方案聚焦于多场景、多文字类型的文字识别。
    发表于 08-18 16:57

    【大联大世平Intel®神经计算棒NCS2试用申请】树莓派上联合调试Intel®神经计算棒NCS2部署OpenVINO

    项目名称:树莓派上联合调试Intel®神经计算棒NCS2部署OpenVINO试用计划:1, 我是树莓派资深开发者,有好几个树莓派,2,精通Ubuntu 16.04.3 LTS(64位
    发表于 06-30 16:06

    Arm虚拟硬件上部署PP-PicoDet模型

    1、Arm虚拟硬件上部署PP-PicoDet模型  经典的深度学习工程是从确认任务目标开始的,我们首先来简单地介绍一下目标检测任务以及本期部署
    发表于 09-16 14:42

    使用OpenVINO部署PaddleSeg模型库中的DeepLabV3+模型

    下的DeepLabV3+路面语义分割模型转换为OpenVINO   工具套件的IR模型并且部署到CPU。   为了使本文拥有更广的受众面,
    的头像 发表于 11-22 14:58 1.1w次阅读
    使用<b class='flag-5'>OpenVINO</b>™ <b class='flag-5'>部署</b>PaddleSeg<b class='flag-5'>模型</b>库中的DeepLabV3+<b class='flag-5'>模型</b>

    英特尔独立显卡部署YOLOv5 v7.0版实时实例分割模型

    本文介绍基于 OpenVINO 英特尔独立显卡部署 YOLOv
    的头像 发表于 12-20 11:32 5643次阅读

    C++中使用OpenVINO工具包部署YOLOv5模型

    下载并转换YOLOv5预训练模型的详细步骤,请参考:《基于OpenVINO™2022.2和蝰蛇峡谷优化并部署YOLOv5
    的头像 发表于 02-15 16:53 1.1w次阅读

    AI爱克斯开发板OpenVINO™加速YOLOv8目标检测模型

    AI 爱克斯开发板OpenVINO 加速 YOLOv8 分类模型》介绍了 AI 爱克斯开发板
    的头像 发表于 05-12 09:08 2195次阅读
    <b class='flag-5'>在</b>AI爱克斯开发板<b class='flag-5'>上</b>用<b class='flag-5'>OpenVINO</b>™加速YOLOv8目标检测<b class='flag-5'>模型</b>

    基于算力魔方与PP-OCRv5OpenVINO智能文档识别方案

    )团队最新推出的PP-OCRv5模型精度和效率实现了显著突破,结合Intel OpenVINO
    的头像 发表于 06-12 21:19 1383次阅读
    基于算力魔方与<b class='flag-5'>PP-OCRv5</b>的<b class='flag-5'>OpenVINO</b>智能文档识别方案

    一键搞定!PP-OCRv5模型转ONNX格式全攻略,解锁多平台无缝部署

    飞桨技术生态伙伴 算力魔方 | 引言:还在为OCR模型不同硬件部署而头疼吗?百度飞桨的PP-OCRv5重磅升级,准确率提升13%,且一
    的头像 发表于 09-05 16:10 1183次阅读
    一键搞定!<b class='flag-5'>PP-OCRv5</b><b class='flag-5'>模型</b>转ONNX格式全攻略,解锁多平台无缝<b class='flag-5'>部署</b>