0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

用OpenVINO™ C++ API编写YOLOv8-Seg实例分割模型推理程序

英特尔物联网 来源:英特尔物联网 2023-06-25 16:09 次阅读

文章作者:英特尔边缘计算创新大使战鹏州

01. 简介

本文章将介绍使用 OpenVINO2023.0 C++ API 开发YOLOv8-Seg 实例分割(Instance Segmentation)模型的 AI 推理程序。本文 C++ 范例程序的开发环境是 Windows + Visual Studio Community 2022。

请读者先配置基于 Visual Studio 的 OpenVINO C++ 开发环境。

请克隆本文的代码仓:

git clone

https://gitee.com/ppov-nuc/yolov8_openvino_cpp.git

02. 导出YOLOv8-Seg OpenVINO IR 模型

YOLOv8 是 Ultralytics 公司基于 YOLO 框架,发布的一款面向物体检测与跟踪、实例分割、图像分类和姿态估计任务的 SOTA 模型工具套件。

首先用命令:

pip install -r requirements.txt

安装 ultralytics 和 openvino-dev 。

然后使用命令:

yolo export model=yolov8n-seg.pt format=openvino half=True

向右滑动查看完整代码

导出 FP16 精度的 OpenVINO IR 模型,如下图所示。

792bbbb4-1013-11ee-962d-dac502259ad0.png

接着使用命令:

benchmark_app -m yolov8n-seg.xml -d GPU.1

向右滑动查看完整代码

获得 yolov8n-seg.xml 模型在 A770m 独立显卡上的异步推理计算性能,如下图所示。

79579bb2-1013-11ee-962d-dac502259ad0.png

03.使用 OpenVINO C++ API

编写 YOLOv8-Seg 实例分割模型推理程序

使用 OpenVINO C++ API 编写 YOLOv8-Seg 实例分割模型推理程序主要有5个典型步骤:

1采集图像&图像解码

2图像数据预处理

3AI 推理计算(基于 OpenVINO C++ API )

4对推理结果进行后处理

5将处理后的结果可视化

79889b04-1013-11ee-962d-dac502259ad0.png

YOLOv8-Seg 实例分割模型推理程序的图像数据预处理和AI推理计算的实现方式跟 YOLOv8 目标检测模型推理程序的实现方式几乎一模一样,可以直接复用。

3.1图像数据预处理

使用 Netron 打开 yolov8n-seg.onnx ,如下图所示,可以看到:

输入节点的名字:“ images ”;数据:float32[1,3,640,640]

输出节点1的名字:“ output0 ”;数据:float32[1,116,8400]。其中116的前84个字段跟 YOLOv8 目标检测模型输出定义完全一致,即cx,cy,w,h 和80类的分数;后32个字段为掩膜置信度,用于计算掩膜数据。

输出节点2的名字:“ output1 ”;数据:float32[1,32,160,160]。output0 后32个字段与 output1 的数据做矩阵乘法后得到的结果,即为对应目标的掩膜数据

79bb847e-1013-11ee-962d-dac502259ad0.png

图像数据预处理的目标就是将任意尺寸的图像数据转变为形状为[1,3,640,640],精度为 FP32 的张量。YOLOv8-Seg 模型的输入尺寸为正方形,为了解决将任意尺寸数据放缩为正方形带来的图像失真问题,在图像放缩前,采用 letterbox 算法先保持图像的长宽比,如下图所示,然后再使用 cv::blobFromImage 函数对图像进行放缩。

图像数据预处理的范例程序如下所示:

Mat letterbox(const Mat& source)
{
  int col = source.cols;
  int row = source.rows;
  int _max = MAX(col, row);
  Mat result = Mat::zeros(_max, _max, CV_8UC3);
  source.copyTo(result(Rect(0, 0, col, row)));
  return result;
}
Mat img = cv::imread("bus.jpg"); 
Mat letterbox_img = letterbox(img);
Mat blob = blobFromImage(letterbox_img, 1.0/255.0, Size(640,640), Scalar(), true);

向右滑动查看完整代码

3.2AI同步推理计算

用 OpenVINO C++ API 实现同步推理计算,主要有七步:

1实例化 Core 对象:ov::Core core;

2编译并载入模型:core.compile_model();

3创建推理请求:infer_request = compiled_model.create_infer_request();

4读取图像数据并完成预处理;

5将输入数据传入模型:infer_request.set_input_tensor(input_tensor);

6启动推理计算:infer_request.infer();

7获得推理结果:output0= infer_request.get_output_tensor(0) ;

output1= infer_request.get_output_tensor(1) ;

范例代码如下所示:

 // -------- Step 1. Initialize OpenVINO Runtime Core --------
  ov::Core core;
  // -------- Step 2. Compile the Model --------
  auto compiled_model = core.compile_model("yolov8n-seg.xml", "CPU");
  // -------- Step 3. Create an Inference Request --------
  ov::InferRequest infer_request = compiled_model.create_infer_request();
  // -------- Step 4.Read a picture file and do the preprocess --------
  Mat img = cv::imread("bus.jpg");
  // Preprocess the image
  Mat letterbox_img = letterbox(img);
  float scale = letterbox_img.size[0] / 640.0;
  Mat blob = blobFromImage(letterbox_img, 1.0 / 255.0, Size(640, 640), Scalar(), true);
  // -------- Step 5. Feed the blob into the input node of the Model -------
  // Get input port for model with one input
  auto input_port = compiled_model.input();
  // Create tensor from external memory
  ov::Tensor input_tensor(input_port.get_element_type(), input_port.get_shape(), blob.ptr(0));
  // Set input tensor for model with one input
  infer_request.set_input_tensor(input_tensor);
  // -------- Step 6. Start inference --------
  infer_request.infer();
  // -------- Step 7. Get the inference result --------
  auto output0 = infer_request.get_output_tensor(0); //output0
  auto output1 = infer_request.get_output_tensor(1); //otuput1

向右滑动查看完整代码

3.3推理结果后处理

实例分割推理程序的后处理是从结果中拆解出预测别类(class_id),类别分数(class_score),类别边界框(box)和类别掩膜(mask),范例代码如下所示:

// -------- Step 8. Postprocess the result --------
  Mat output_buffer(output0_shape[1], output0_shape[2], CV_32F, output0.data());
  Mat proto(32, 25600, CV_32F, output1.data()); //[32,25600]
  transpose(output_buffer, output_buffer); //[8400,116]
  float score_threshold = 0.25;
  float nms_threshold = 0.5;
  std::vector class_ids;
  std::vector class_scores;
  std::vector boxes;
  std::vector mask_confs;
  // Figure out the bbox, class_id and class_score
  for (int i = 0; i < output_buffer.rows; i++) {
        Mat classes_scores = output_buffer.row(i).colRange(4, 84);
        Point class_id;
        double maxClassScore;
        minMaxLoc(classes_scores, 0, &maxClassScore, 0, &class_id);


        if (maxClassScore > score_threshold) {
      class_scores.push_back(maxClassScore);
      class_ids.push_back(class_id.x);
      float cx = output_buffer.at(i, 0);
      float cy = output_buffer.at(i, 1);
      float w = output_buffer.at(i, 2);
      float h = output_buffer.at(i, 3);
      int left = int((cx - 0.5 * w) * scale);
      int top = int((cy - 0.5 * h) * scale);
      int width = int(w * scale);
      int height = int(h * scale);
      cv::Mat mask_conf = output_buffer.row(i).colRange(84, 116);
      mask_confs.push_back(mask_conf);
      boxes.push_back(Rect(left, top, width, height));
    }
  }
  //NMS
  std::vector indices;
  NMSBoxes(boxes, class_scores, score_threshold, nms_threshold, indices);

向右滑动查看完整代码

完整范例参考参见:yolov8_seg_ov_infer.cpp ,运行结果如下图所示:

04 结论

OpenVINOC++ API 简单清晰,易学易用。本文用不到100行(不含可视化检测结果) C++ 代码就实现了基于 OpenVINO 的 YOLOv8-Seg 实例分割模型推理程序,在英特尔 独立显卡 A770m 上获得了较好的推理计算性能。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 英特尔
    +关注

    关注

    60

    文章

    9425

    浏览量

    168851
  • WINDOWS
    +关注

    关注

    3

    文章

    3440

    浏览量

    87144
  • API
    API
    +关注

    关注

    2

    文章

    1383

    浏览量

    60994
  • 程序
    +关注

    关注

    114

    文章

    3631

    浏览量

    79549
  • C++
    C++
    +关注

    关注

    21

    文章

    2066

    浏览量

    72900

原文标题:用OpenVINO™ C++ API编写YOLOv8-Seg实例分割模型推理程序 | 开发者实战

文章出处:【微信号:英特尔物联网,微信公众号:英特尔物联网】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    如何使用OpenVINO C++ API部署FastSAM模型

    象的位置和边界。本文将介绍如何使用 OpenVINO C++ API 部署 FastSAM 模型,以实现快速高效的语义分割。在前文中我们发表
    的头像 发表于 11-17 09:53 445次阅读
    如何使用<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b> <b class='flag-5'>API</b>部署FastSAM<b class='flag-5'>模型</b>

    C++中使用OpenVINO工具包部署YOLOv5-Seg模型

    YOLOv5兼具速度和精度,工程化做的特别好,Git clone到本地即可在自己的数据集上实现目标检测任务的训练和推理,在产业界中应用广泛。开源社区对YOLOv5支持实例
    的头像 发表于 12-21 10:17 1095次阅读
    在<b class='flag-5'>C++</b>中使用<b class='flag-5'>OpenVINO</b>工具包部署<b class='flag-5'>YOLOv5-Seg</b><b class='flag-5'>模型</b>

    怎样使用PyTorch Hub去加载YOLOv5模型

    PyTorch Hub 加载预训练的 YOLOv5s 模型,model并传递图像进行推理。'yolov5s'是最轻最快的 YOLOv5 型
    发表于 07-22 16:02

    使用OpenVINO运行C++ API创建输入tensor并执行推理遇到的问题求解

    使用 OpenVINO™ 运行时 C++ API 创建输入 tensor 并执行推理: ov::Tensor input_tensor = ov::Tensor(input_type
    发表于 08-15 08:22

    在英特尔独立显卡上部署YOLOv5 v7.0版实时实例分割模型

    本文将介绍在基于 OpenVINO 在英特尔独立显卡上部署 YOLOv5 实时实例分割模型的全流程,并提供完整范例代码供读者使用。
    的头像 发表于 12-20 11:32 3043次阅读

    C++中使用OpenVINO工具包部署YOLOv5模型

    下载并转换YOLOv5预训练模型的详细步骤,请参考:《基于OpenVINO™2022.2和蝰蛇峡谷优化并部署YOLOv5模型》,本文所使用的
    的头像 发表于 02-15 16:53 2175次阅读

    TensorRT 8.6 C++开发环境配置与YOLOv8实例分割推理演示

    YOLOv8实例分割TensorRT 推理代码已经完成C++类封装,三行代码即可实现YOLOv
    的头像 发表于 04-25 10:49 3699次阅读
    TensorRT 8.6 <b class='flag-5'>C++</b>开发环境配置与<b class='flag-5'>YOLOv</b>8<b class='flag-5'>实例</b><b class='flag-5'>分割</b><b class='flag-5'>推理</b>演示

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8分类模型

    本系列文章将在 AI 爱克斯开发板上使用 OpenVINO 开发套件依次部署并测评 YOLOv8 的分类模型、目标检测模型实例
    的头像 发表于 05-05 11:47 599次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv</b>8分类<b class='flag-5'>模型</b>

    ​在AI爱克斯开发板上用OpenVINO加速YOLOv8-seg实例分割模型

    benchmark_app是OpenVINOTM工具套件自带的AI模型推理计算性能测试工具,可以指定在不同的计算设备上,在同步或异步模式下,测试出不带前后处理的纯AI模型推理计算性能。
    的头像 发表于 05-24 11:19 413次阅读
    ​在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>加速<b class='flag-5'>YOLOv8-seg</b><b class='flag-5'>实例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用 OpenVINO 开发套件部署并测评
    的头像 发表于 06-05 11:52 604次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv8-seg</b><b class='flag-5'>实例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    教你如何用两行代码搞定YOLOv8各种模型推理

    大家好,YOLOv8 框架本身提供的API函数是可以两行代码实现 YOLOv8 模型推理,这次我把这段代码封装成了一个类,只有40行代码左右
    的头像 发表于 06-18 11:50 2084次阅读
    教你如何用两行代码搞定<b class='flag-5'>YOLOv</b>8各种<b class='flag-5'>模型</b><b class='flag-5'>推理</b>

    在AI爱克斯开发板上用OpenVINO™加速YOLOv8-seg实例分割模型

    《在 AI 爱克斯开发板上用 OpenVINO 加速 YOLOv8 目标检测模型》介绍了在 AI 爱克斯开发板上使用 OpenVINO 开发套件部署并测评
    的头像 发表于 06-30 10:43 451次阅读
    在AI爱克斯开发板上用<b class='flag-5'>OpenVINO</b>™加速<b class='flag-5'>YOLOv8-seg</b><b class='flag-5'>实例</b><b class='flag-5'>分割</b><b class='flag-5'>模型</b>

    三种主流模型部署框架YOLOv8推理演示

    深度学习模型部署有OpenVINO、ONNXRUNTIME、TensorRT三个主流框架,均支持Python与C++的SDK使用。对YOLOv5~Y
    的头像 发表于 08-06 11:39 1844次阅读

    基于OpenVINO Python API部署RT-DETR模型

    平台实现 OpenVINO 部署 RT-DETR 模型实现深度学习推理加速, 在本文中,我们将首先介绍基于 OpenVINO Python API
    的头像 发表于 10-20 11:15 535次阅读
    基于<b class='flag-5'>OpenVINO</b> Python <b class='flag-5'>API</b>部署RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO C++ API部署RT-DETR模型

    应用中,我们为了与当前软件平台集成更多会采用 C++ 平台,因此在本文中,我们将基于 OpenVINO C++ API 向大家展示了不包含后处理的 RT-DETR
    的头像 发表于 11-03 14:30 373次阅读
    基于<b class='flag-5'>OpenVINO</b> <b class='flag-5'>C++</b> <b class='flag-5'>API</b>部署RT-DETR<b class='flag-5'>模型</b>