0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英特尔开发套件使用OpenVINO™ C# API部署Yolov8模型

英特尔物联网 来源:英特尔物联网 2023-10-13 16:33 次阅读
bcd17478-699e-11ee-939d-92fbcf53809c.png

英特尔发行版OpenVINO工具套件[1]基于 oneAPI 而开发,可以加快高性能计算机视觉深度学习视觉应用开发速度工具套件,适用于从边缘到云的各种英特尔平台上,帮助用户更快地将更准确的真实世界结果部署到生产系统中。通过简化的开发工作流程,OpenVINO 可赋能开发者在现实世界中部署高性能应用程序和算法

C# 是由 C 和 C++ 衍生出来的一种安全的、稳定的、简单的、优雅的面向对象编程语言。C# 综合了 VB 简单的可视化操作和 C++ 的高运行效率,以其强大的操作能力、优雅的语法风格、创新的语言特性和便捷的面向组件编程的支持成为 .NET 开发的首选语言。然而OpenVINO 未提供 C# 语言接口,这对在 C# 中使用OpenVINO 带来了很多麻烦,在之前的工作中,我们推出了OpenVINO C# API[2],旨在推动OpenVINO在 C# 领域的应用,目前已经成功在 Window 平台实现使用。在本文中,我们将介绍如何在 英特尔开发套件 AlxBoard 上基于 Linux 系统实现 OpenVINO C# API。

项目中所使用的代码已上传至 OpenVINO C# API 仓库中,GitHub 网址为:

https://github.com/guojin-yan/OpenVINO-CSharp-API/blob/csharp3.0/tutorial_examples/AlxBoard_deploy_yolov8/Program.cs

(复制链接到浏览器打开)

1. 英特尔开发套件 AlxBoard 介绍

bcdc31c4-699e-11ee-939d-92fbcf53809c.png

图1 英特尔开发套件 AlxBoard介绍

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.1 产品定位

英特尔开发套件AlxBoard 是英特尔开发套件官方序列中的一员,专为入门级人工智能应用和边缘智能设备而设计。英特尔开发套件 AlxBoard 能完美胜人工智能学习、开发、实训、应用等不同应用场景。该套件预装了英特尔 OpenVINO 工具套件、模型仓库和演示。

套件主要接口与 Jetson Nano 载板兼容,GPIO 与树莓派兼容,能够最大限度地复用成熟的生态资源。这使得套件能够作为边缘计算引擎,为人工智能产品验证和开发提供强大支持;同时,也可以作为域控核心,为机器人产品开发提供技术支撑。

使用英特尔开发套件 AlxBoard,您将能够在短时间内构建出一个出色的人工智能应用应用程序。无论是用于科研、教育还是商业领域,英特尔开发套件 AlxBoard 都能为您提供良好的支持。借助OpenVINO工具套件,CPU、iGPU都具备强劲的AI推理能力,支持在图像分类、目标检测、分割和语音处理等应用中并行运行多个神经网络

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.2 产品参数

bd18c4ea-699e-11ee-939d-92fbcf53809c.png

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

1.3 AI 推理单元

借助 OpenVINO 工具,能够实现 CPU+iGPU 异构计算推理,IGPU 算力约为 0.6TOPS

bd4b0446-699e-11ee-939d-92fbcf53809c.png

2. 配置 .NET 环境

.NET是一个免费的跨平台开源开发人员平台,用于构建多种应用程序。下面将演示英特尔开发套件 AlxBoard如何在Ubuntu 20.04上安装.NET 环境,支持.NET Core 2.0-3.1系列以及.NET 5-8系列,如果你的英特尔开发套件 AlxBoard使用的是其他 Linux 系统,你可以参考在Linux发行版上安装.NET - .NET | Microsoft Learn[3]

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.1 添加Microsoft包存储库

使用APT进行安装可通过几个命令来完成。安装.NET之前,请运行以下命令,将Microsoft包签名密钥添加到受信任密钥列表,并添加包存储库。

打开终端并运行以下命令:

wget https://packages.microsoft.com/config/ubuntu/20.04/packages-microsoft-prod.deb -O packages-microsoft-prod.deb
sudo dpkg -i packages-microsoft-prod.deb
rm packages-microsoft-prod.deb

下图为输入上面命令后控制台的输出:

bd6d1f5e-699e-11ee-939d-92fbcf53809c.png

图21.2.1添加Microsoft包存储库输出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.2 安装 SDK

.NET SDK使你可以通过.NET开发应用。如果安装.NET SDK,则无需安装相应的运行时。若要安装.NET SDK,请运行以下命令:

sudo apt-get update
sudo apt-get install -y dotnet-sdk-3.1

下图为安装后控制台的输出:

bd8f8d6e-699e-11ee-939d-92fbcf53809c.png

图3安装SDK输出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.3 测试安装

通过命令行可以检查SDK版本以及 Runtime 时版本。

dotnet --list-sdks
dotnet --list-runtimes

下图为输入测试命令后控制台的输出:

bdb2ad58-699e-11ee-939d-92fbcf53809c.png

图4SDK版本以及 Runtime 版本

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

2.4 测试控制台项目

在 linux 环境下,我们可以通过 dotnet 命令来创建和编译项目,项目创建命令为:

dotnet new  -o 

此处我们创建一个简单测试控制台项目:

dotnet new console -o test_net6.0
cd test_net6.0
dotnet run

下图为输入测试命令后控制台的输出以及项目文件夹文件情况,C# 项目会自动创建一个 Program.cs 程序文件,里面包含了程序运行入口主函数,同时还会创建一个 *.csproj 文件,负责指定项目编译中的一些配置。

bddf80da-699e-11ee-939d-92fbcf53809c.pngbe0293cc-699e-11ee-939d-92fbcf53809c.png

图5控制台项目

以上就是 .NET 环境的配置步骤,如果你的环境与本文不匹配,可以通过.NET文档| Microsoft Learn[4]获取更多安装步骤。

3. 安装OpenVINO Runtime

OpenVINO有两种安装方式: OpenVINO Runtime 和OpenVINO Development Tools。OpenVINO Runtime 包含用于在处理器设备上运行模型部署推理的核心库。OpenVINO Development Tools 是一组用于处理 OpenVINO 和 OpenVINO 模型的工具,包括模型优化器、OpenVINO Runtime、模型下载器等。在此处我们只需要安装 OpenVINO Runtime 即可。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.1下载OpenVINO Runtime

访问Download the Intel Distribution of OpenVINO Toolkit[5]页面,按照下面流程选择相应的安装选项,在下载页面,由于我们的设备使用的是 Ubuntu20.04,因此下载时按照指定的编译版本下载即可。

be1e4eb4-699e-11ee-939d-92fbcf53809c.pngbe3d408a-699e-11ee-939d-92fbcf53809c.png

图6OpenVINO Runtime下载

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.2 解压安装包

我们所下载的OpenVINO Runtime本质是一个 C++ 依赖包,因此我们把它放到我们的系统目录下,这样在编译时会根据设置的系统变量获取依赖项。首先在系统文件夹下创建一个文件夹:

sudo mkdir -p /opt/intel

然后解压缩我们下载的安装文件,并将其移动到指定文件夹下:

tar -xvzf l_openvino_toolkit_ubuntu20_2022.3.1.9227.cf2c7da5689_x86_64.tgz
sudo mv l_openvino_toolkit_ubuntu20_2022.3.1.9227.cf2c7da5689_x86_64 /opt/intel/openvino_2023.1

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.3 安装依赖

接下来我们需要安装OpenVINO Runtime所有的依赖项,通过命令行输入以下命令即可:

cd /opt/intel/openvino_2022.3.1/
sudo -E ./install_dependencies/install_openvino_dependencies.sh
be6b53bc-699e-11ee-939d-92fbcf53809c.png

图7安装 OpenVINO Runtime 依赖项

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

3.4 配置环境变量

安装完成后,我们需要配置环境变量,以保证在调用时系统可以获取对应的文件,通过命令行输入以下命令即可:

source /opt/intel/openvino_2022.3.1/setupvars.sh

以上就是OpenVINO Runtime环境的配置步骤,如果你的环境与本文不匹配,可以通过Install OpenVINO Runtime on Linux — OpenVINO documentation — Version(2023.1) [6]获取更多安装步骤。

配置AlxBoard_deploy_yolov8项目

项目中所使用的代码已经放在 GitHub 仓库AlxBoard_deploy_yolov8[7],大家可以根据情况自行下载和使用,下面我将会从头开始一步步构建 AlxBoard_deploy_yolov8 项目。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.1创建AlxBoard_deploy_yolov8项目

在该项目中,我们需要使用 OpenCvSharp,该依赖目前在 Ubutun 平台最高可以支持 .NET Core 3.1,因此我们此处创建一个 .NET Core 3.1 的项目,使用 Terminal 输入以下指令创建并打开项目文件:

dotnet new console --framework "netcoreapp3.1" -o AlxBoard_deploy_yolov8
cd AlxBoard_deploy_yolov8

be9e48e4-699e-11ee-939d-92fbcf53809c.png

图81.4.1创建AlxBoard_deploy_yolov8项目

创建完项目后,将 AlxBoard_deploy_yolov8 的代码内容替换到创建的项目中的 Program.cs 文件中.

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.2添加OpenVINO C# API 依赖

由于 OpenVINO C# API当前正处于开发阶段,还未创建 Linux 版本的 NuGet Package,因此需要通过下载项目源码以项目引用的方式使用。

下载源码

通过 Git 下载项目源码,新建一个 Terminal,并输入以下命令克隆远程仓库,将该项目放置在 AlxBoard_deploy_yolov8 同级目录下。

git clone https://github.com/guojin-yan/OpenVINO-CSharp-API.git
cd OpenVINO-CSharp-API

本文的项目目录为:

Program
--|-AlxBoard_deploy_yolov8
--|-OpenVINO-CSharp-API

修改 OpenVINO依赖

由于项目源码的 OpenVINO依赖与本文设置不同,因此需要修改 OpenVINO依赖项的路径,主要通过修改OpenVINO-CSharp-API/src/CSharpAPI/native_methods/ov_base.cs 文件即可,修改内容如下:

rivate const string dll_extern = "./openvino2023.1/openvino_c.dll";
---修改为--->
private const string dll_extern = "libopenvino_c.so";

添加项目依赖

在 Terminal 输入以下命令,即可将 OpenVINO C# API 添加到 AlxBoard_deploy_yolov8 项目引用中。

dotnet add reference ./../OpenVINO-CSharp-API/src/CSharpAPI/CSharpAPI.csproj

添加环境变量

该项目需要调用 OpenVINO 动态链接库,因此需要在当前环境下增加 OpenVINO 动态链接库路径:

export LD_LIBRARY_PATH=/opt/intel/openvino_2023.0/runtime/lib/intel64

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

4.3添加 OpenCvSharp

安装 NuGet Package

OpenCvSharp 可以通过 NuGet Package 安装,只需要在 Terminal 输入以下命令:

dotnet add package OpenCvSharp4_.runtime.ubuntu.20.04-x64
dotnet add package OpenCvSharp4

添加环境变量

将以下路径添加到环境变量中:

export LD_LIBRARY_PATH=/home/ygj/Program/OpenVINO-CSharp-API/tutorial_examples/AlxBoard_deploy_yolov8/bin/Debug/netcoreapp3.1/runtimes/ubuntu.20.04-x64/native

/bin/Debug/netcoreapp3.1/runtimes/ubuntu.20.04-x64/native 是 AlxBoard_deploy_yolov8 编译后生成的路径,该路径下存放了 libOpenCvSharpExtern.so 文件,该文件主要是封装的 OpenCV 中的各种接口。也可以将该文件拷贝到项目运行路径下。

检测 libOpenCvSharpExtern 依赖

由于 libOpenCvSharpExtern.so 是在其他环境下编译好的动态链接库,本机电脑可能会缺少相应的依赖,因此可以通过 ldd 命令检测。

ldd libOpenCvSharpExtern.so

becb2472-699e-11ee-939d-92fbcf53809c.png

图9检测 libOpenCvSharpExtern 依赖

如果输出内容中没有 no found 的,说明不缺少依赖,如果存在,则需要安装缺少的依赖项才可以正常使用。

添加完项目依赖以及 NuGet Package 后,项目的配置文件内容为:

"Microsoft.NET.Sdk">
 
  "..OpenVINO-CSharp-APIsrcCSharpAPICSharpAPI.csproj" />
 
 
  "OpenCvSharp4" Version="4.8.0.20230708" />
  "OpenCvSharp4_.runtime.ubuntu.20.04-x64" Version="4.8.0.20230708" />
 
 
  Exe
  netcoreapp3.1
 

5. 运行 AlxBoard_deploy_yolov8项目

该项目测试所使用的模型与文件都可以在 OpenVINO-CSharp-API 中找到,因此下面我们通过 OpenVINO-CSharp-API 仓库下的模型与文件进行测试。

通过 dotnet 运行,只需要运行以下命令即可。

dotnet run 

参数设指的是模型预测类型、模型路径、图片文件路径参数,预测类型输入包括:'det'、'seg'、'pose'、'cls'四种类型;默认推理设备设置为'AUTO',对于'det'、'seg'预测,可以设置参数,如果设置该参数,会将结果绘制到图片上,如果未设置,会通过控制台打印出来。

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.1编译运行Yolov8-det模型

编译运行命令为:

dotnet run det /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg GPU.0 /home/ygj/Program/OpenVINO-CSharp-API/dataset/lable/COCO_lable.txt

模型推理输出结果为:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 84, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg


Detection result : 


1: 0 0.89  (x:744 y:43 width:388 height:667)
2: 0 0.88  (x:149 y:202 width:954 height:507)
3:270.72(x:435y:433width:98height:284)

bef206a0-699e-11ee-939d-92fbcf53809c.jpg

图10Yolov8-det模型预测输出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.2编译运行Yolov8-cls模型

编译运行命令为:

dotnet run cls /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-cls.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_7.jpg GPU.0

模型推理输出结果为:

--- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-cls.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 224, 224]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 1000]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_7.jpg




Classification Top 10 result : 


classid probability
------- -----------
294   0.992173
269   0.002861
296   0.002111
295   0.000714
270   0.000546
276   0.000432
106   0.000159
362   0.000147
260   0.000078
272   0.000070

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.3编译运行Yolov8-pose模型

编译运行命令为:

dotnet run pose /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-pose.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_9.jpg GPU.0

模型推理输出结果为:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-pose.xml
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 56, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_9.jpg




Classification result : 


1: 1  0.94  (x:104 y:22 width:152 height:365) Nose: (188 ,60 ,0.93) Left Eye: (192 ,53 ,0.83) Right Eye: (180 ,54 ,0.90) Left Ear: (196 ,53 ,0.50) Right Ear: (167 ,56 ,0.76) Left Shoulder: (212 ,92 ,0.93) Right Shoulder: (151 ,93 ,0.94) Left Elbow: (230 ,146 ,0.90) Right Elbow: (138 ,142 ,0.93) Left Wrist: (244 ,199 ,0.89) Right Wrist: (118 ,187 ,0.92) Left Hip: (202 ,192 ,0.97) Right Hip: (168 ,193 ,0.97) Left Knee: (184 ,272 ,0.96) Right Knee: (184 ,276 ,0.97) Left Ankle: (174 ,357 ,0.87) Right Ankle: (197 ,354 ,0.88) 

bf2c40ae-699e-11ee-939d-92fbcf53809c.jpg

图11Yolov8-pose模型预测输出

bcf5302a-699e-11ee-939d-92fbcf53809c.svg

5.4运行Yolov8-seg模型

编译运行命令为:

dotnet run seg /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-seg.xml /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg GPU.0 /home/ygj/Program/OpenVINO-CSharp-API/dataset/lable/COCO_lable.txt

模型推理输出结果为:

---- OpenVINO INFO----
Description : OpenVINO Runtime
Build number: 2023.1.0-12185-9e6b00e51cd-releases/2023/1
Set inference device GPU.0.
[INFO] Loading model files: /home/ygj/Program/OpenVINO-CSharp-API/model/yolov8/yolov8s-seg.xml
47
[INFO] model name: torch_jit
[INFO]  inputs:
[INFO]   input name: images
[INFO]   input type: f32
[INFO]   input shape: Shape : [1, 3, 640, 640]
[INFO]  outputs:
[INFO]   output name: output0
[INFO]   output type: f32
[INFO]   output shape: Shape : [1, 116, 8400]
[INFO] Read image files: /home/ygj/Program/OpenVINO-CSharp-API/dataset/image/demo_2.jpg




Segmentation result : 


1: 0 0.90  (x:745 y:42 width:403 height:671)
2: 0 0.86  (x:121 y:196 width:1009 height:516)
3: 27 0.69  (x:434 y:436 width:90 height:280)

bf42831e-699e-11ee-939d-92fbcf53809c.jpg

图12Yolov8-seg模型预测输出

6. 模型运行时间

英特尔开发套件 AlxBoard 板载了英特尔赛扬 N5105 CPU 以及英特尔 11 代集成显卡,此处对 CPU、GPU 的推理情况做了一个简单测试,主要检测了模型推理时间,并使用英特尔幻影峡谷进行了同步测试,测试结果如表所示。

bf582e8a-699e-11ee-939d-92fbcf53809c.png

可以看出,英特尔赛扬 N5105 CPU 在模型推理性能是十分强大的,且搭配的英特尔 11 代集成显卡,将推理速度提升了 6 倍左右,针对 Yolov8 模型,平均处理速度可以达到 10FPs。而相比于幻影峡谷的推理速度,英特尔开发套件 AlxBoard 推理性能大约为其五分之一,这相比一般的开发板,英特尔开发套件 AlxBoard 的算力还是十分强大的。

总结

在该项目中,我们基于 Ubutn 20.04系统,成功实现了在 C# 环境下调用 OpenVINO 部署深度学习模型,验证了在 Linux 环境下 OpenVINO C# API 项目的的可行性,这对后面在 Linux 环境下开发 OpenVINO C# API 具有很重要的意义。

除此之外,我们还使用 OpenVINO C# API 检验了英特尔开发套件 AlxBoard 的模型推理能力,最总针对 Yolov8模型,平均处理速度可以达到 10FPs,这对目前大多数开发板来说,已经达到了很高的推理速度。后续我还会将继续使用 OpenVINO C# API 在 英特尔开发套件 AlxBoard 部署更多的深度学习模型。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9425

    浏览量

    168854
  • API
    API
    +关注

    关注

    2

    文章

    1383

    浏览量

    60994
  • 深度学习
    +关注

    关注

    73

    文章

    5239

    浏览量

    119920

原文标题:英特尔开发套件使用 OpenVINO™ C# API 部署 Yolov8 模型 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    介绍英特尔®分布式OpenVINO™工具包

    介绍英特尔®分布式OpenVINO™工具包可快速部署模拟人类视觉的应用程序和解决方案。 该工具包基于卷积神经网络(CNN),可扩展英特尔®硬件的计算机视觉(CV)工作负载,从而最大限度
    发表于 07-26 06:45

    从Docker映像为Raspbian OpenVINO工具套件的安装过程

    最大限度地提高了性能。英特尔英特尔® Distribution工具OpenVINO™工具套件还包括英特尔®深度学习
    发表于 08-15 06:59

    安装OpenVINO工具套件英特尔Distribution时出现错误的原因?

    安装OpenVINO™工具套件英特尔 Distribution时,出现错误: Python 3.10.0.ECHO is off. Unsupported Python version.
    发表于 08-15 08:14

    英特尔BOOT Loader开发套件-高级嵌入式开发基础

    从技术角度概括介绍用于快速开发部署启动加载器的英特尔 Boot Loader 开发套件(英特尔 BLDK),该
    发表于 12-07 14:57 59次下载
    <b class='flag-5'>英特尔</b>BOOT Loader<b class='flag-5'>开发套件</b>-高级嵌入式<b class='flag-5'>开发</b>基础

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下载并转换YOLOv5预训练模型的详细步骤,请参考:《基于OpenVINO™2022.2和蝰蛇峡谷优化并部署YOLOv5
    的头像 发表于 02-15 16:53 2175次阅读

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8分类模型

    本系列文章将在 AI 爱克斯开发板上使用 OpenVINO 开发套件依次部署并测评 YOLOv8 的分类
    的头像 发表于 05-05 11:47 599次阅读
    在AI爱克斯<b class='flag-5'>开发</b>板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv8</b>分类<b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8目标检测模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 分类模型》介绍了在 AI 爱克斯开发板上使用
    的头像 发表于 05-12 09:08 851次阅读
    在AI爱克斯<b class='flag-5'>开发</b>板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv8</b>目标检测<b class='flag-5'>模型</b>

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    《在AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了在AI爱克斯开发板上使用Open
    的头像 发表于 05-26 11:03 721次阅读
    AI爱克斯<b class='flag-5'>开发</b>板上使用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv8</b>目标检测<b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用
    的头像 发表于 06-05 11:52 604次阅读
    在AI爱克斯<b class='flag-5'>开发</b>板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8-seg实例分割<b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用
    的头像 发表于 06-30 10:43 451次阅读
    在AI爱克斯<b class='flag-5'>开发</b>板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8-seg实例分割<b class='flag-5'>模型</b>

    三种主流模型部署框架YOLOv8推理演示

    深度学习模型部署OpenVINO、ONNXRUNTIME、TensorRT三个主流框架,均支持Python与C++的SDK使用。对YOLOv5~Y
    的头像 发表于 08-06 11:39 1844次阅读

    使用OpenVINO优化并部署训练好的YOLOv7模型

    在《英特尔锐炫 显卡+ oneAPI 和 OpenVINO 实现英特尔 视频 AI 计算盒训推一体-上篇》一文中,我们详细介绍基于英特尔 独立显卡搭建
    的头像 发表于 08-25 11:08 923次阅读
    使用<b class='flag-5'>OpenVINO</b>优化并<b class='flag-5'>部署</b>训练好的<b class='flag-5'>YOLOv</b>7<b class='flag-5'>模型</b>

    基于OpenVINO英特尔开发套件上实现眼部追踪

    本文将以训练一个眼部追踪 AI 小模型为背景,介绍从 Pytorch 自定义网络模型,到使用 OpenVINO NNCF 量化工具优化模型,并部署
    的头像 发表于 09-18 10:11 439次阅读

    基于英特尔开发套件的AI字幕生成器设计

    市面上有很多自然语言处理模型,本文旨在帮助开发者快速将 OpenAI* 的热门 NLP 模型 Whisper 部署英特尔
    的头像 发表于 09-27 16:59 527次阅读
    基于<b class='flag-5'>英特尔</b><b class='flag-5'>开发套件</b>的AI字幕生成器设计

    基于OpenVINO C# API部署RT-DETR模型

    Python API 部署 RT-DETR 模型 | 开发者实战》和《基于 OpenVINO C++
    的头像 发表于 11-10 16:59 400次阅读
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C#</b> <b class='flag-5'>API</b><b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>