0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用检测模型进行唤醒词检测模型的部署

Tensorflowers 来源:HaaS技术社区 作者:罗奎 2021-09-30 11:22 次阅读

随着机器学习的发展,TinyML(微型机器学习)已在你的家里、车里、甚至口袋里工作了。什么是 TinyML 呢?它是属于机器学习的一个子领域,包含了算法硬件和软件,能够基于传感器数据分析,并在极低功耗的设备上运行。比如家里的天猫精灵、苹果的 Siri 和亚马逊的 Alexa 等语音助手,都属于 TinyML 的应用,它们提供了语音用户接口 (AUI),让用户不需要操作屏幕、鼠标或键盘就可以进行交互,给用户提供了一种全新的交互方式,这些语音助手几乎无处不在。从独立的智能音箱到几乎所有手机都内置了某种语音助手。

在大部分情况下,语音识别、自然语言处理以及语音合成等繁重工作都是在云端完成的,由性能强大的服务器运行大型机器学习模型。当用户提出问题时,将以 wav 或其他音频流的形式被发送到云端。云端识别出音频流的含义并进行回复响应。语音助手真正需要的音频是唤醒设备后的数据。如果能在不发送数据的情况下检测到这个唤醒词,并在听到唤醒词之后才开始音频流的传输,这样既能够保护用户的隐私、节省电池电量和带宽,而且可以在没有网络的情况下唤醒。

这也是 TinyML 的用武之地。要在低功耗的芯片上运行,意味着要训练一个监听唤醒词的微型模型,嵌入到微控制设备中,它就可以一直监听唤醒词,当检测到唤醒词后通知操作系统开始捕获音频并发送到云端。

在本文章中,将教大家如何使用预先训练的检测模型,在 HaaS EDU K1 上进行唤醒词检测模型的部署,并使用 Tensorflow Lite Micro 推理引擎进行推理。随后将教大家如何使用 Tensorflow 训练脚本训练一个自己的唤醒词,再进行设备端部署。本案例主要由三个部分组成:

1. 语音采集:接入模拟麦克风(Mic1 输入);

2. 语音识别:说出“打开”和“关闭”识别后,OLED 将显示 “Turn on.。.” 和 “Turn off”;

3. 语音播报:执行指令的同时,播报本地 TTS (mp3)。

涉及知识点

唤醒词数据采集、模型训练、模型部署

设备端模拟 MIC 声音采样

设备端音频特征提取

TFLite-Micro 推理引擎应用

设备端命令识别、响应

设备端喇叭播放 mp3 文件

文件系统应用

OLED 显示字符

方案介绍

整个方案的框架如下:

提供批量音频录制工具进行数据收集;

提供 TF 模型训练脚本进行唤醒词训练;

提供完整设备端模型部署方案;

基于该方案,你将学习到 TinyML 的整个生命周期:

开发环境搭建

1. 硬件准备

如果有 HaaS 语音扩展板,直接插入即可:

如果没有 HaaS 语音扩展板,请按照如下步骤接入麦克风和喇叭:

HaaS EDU K1 硬件排线图请参考

HaaS EDU K1 说明书 - IoT 物联网操作系统 - 阿里云

HaaS EDU K1 说明书 - IoT 物联网操作系统 - 阿里云

https://help.aliyun.com/document_detail/205267.html

2. 环境搭建

参考《HaaS EDU K1 快速开始》中 HaaS Studio 章节完成 AliOS Things 开发环境搭建。

《HaaS EDU K1 快速开始》

https://blog.csdn.net/HaaSTech/article/details/119674142

2.1 案例代码下载

该案例相关的源代码下载可参考《创建工程》,该案例是 C/C++ 案例。

《创建工程》

https://g.alicdn.com/alios-things-3.3/doc/haas-studio.html?spm=a2cti.24227744.0.0.696b40faTNQpKM#autotoc_md1867

其中:

选择解决方案: “TFLite-Micro 离线语音快捷词唤醒案例”或者 “tflite_micro_speech_demo”

选择开发板: HaaS EDU K1

2.2 代码编译、烧录

参考《HaaS EDU K1 快速开始》完成代码的编译及烧录,在烧录前,请先完成 2.1 的步骤,再进行编译烧录。

《HaaS EDU K1 快速开始》

https://blog.csdn.net/HaaSTech/article/details/119674142

文件件系统烧录

本组件例子中使用到的本地语料存放在代码中 hardware/chip/haas1000/prebuild/data/ 目录下 mp3 目录,除烧录 tflite_micro_speech_demo image 外,需烧录 littlefs 文件系统,请将 hardware/chip/haas1000/package.yaml 文件中以下代码段的注释打开后重新编译:

program_data_files:

- filename: release/write_flash_tool/ota_bin/littlefs.bin

address: 0xB32000

2.3 打开串口

参考《HaaS EDU K1 快速开始》打开串口进行 LOG 查看。

《HaaS EDU K1 快速开始》

https://blog.csdn.net/HaaSTech/article/details/119674142

软件架构

KWS Demo 应用程序: 主要打通实现 AI 语音引擎的初始化,欢迎语播报。

ai_agent 组件:是 AliOS Things 上的 AI 引擎核心模块,后端接入不同的推理引擎,本案例中使用了 TFLite-Micro 推理引擎。

uVoice 组件:是 AliOS Things 上智能语音解决方案的核心组件,提供了本地音频,URL 音频,TTS 合成等基础功能,音频格式支持 mp3, m4a, wav, opus 等主流格式,本案例中使用它来进行本地 mp3 语料的响应播报。

A2SA 组件:是 AliOS Things 上音频服务框架,兼容 ALSA 应用接口访问,支持音频硬件驱动抽象,多音频驱动加载/卸载,VFS 接口支持等功能。

1. 代码结构

├── cp_resources.py # 拷贝本地语料到/prebuild/data目录,编译进文件系统

├── main.c

├── maintask.c

├── Makefile

├── micro_speech # 语音识别程序

├── oled # OLED显示程序

│ ├── oled.c

│ └── oled.h

├── package.yaml # 编译系统配置文件

├── player # 播放器程序

│ ├── player.c

│ └── player.h

├── README.md

├── recorder # 录音程序

│ ├── recorder.c

│ └── recorder.h

├── resources

│ └── mp3 # 本地mp3语料

├── SConstruct

2. 设备端工作流程

在 HaaS EDU K1 上的整个工作流程如下图:

3. 程序主体

以下代码是执行唤醒词识别主体,setup 对 TFLite-Micro 模型推理引擎进行初始化,loop 中执行上图中整个流程,从音频采集到命令响应的全部流程在该函数中实现,详细逻辑请参考代码。

// The name of this function is important for Arduino compatibility.

void setup()

{

// tflite::InitializeTarget();

//RegisterDebugLogCallback(callback);

// Set up logging. Google style is to avoid globals or statics because of

// lifetime uncertainty, but since this has a trivial destructor it‘s okay.

// NOLINTNEXTLINE(runtime-global-variables)

static tflite::MicroErrorReporter micro_error_reporter;

error_reporter = µ_error_reporter;

// Map the model into a usable data structure. This doesn’t involve any

// copying or parsing, it‘s a very lightweight operation.

model = tflite::GetModel(g_model);

if (model-》version() != TFLITE_SCHEMA_VERSION)

{

TF_LITE_REPORT_ERROR(error_reporter,

“Model provided is schema version %d not equal ”

“to supported version %d.”,

model-》version(), TFLITE_SCHEMA_VERSION);

return;

}

// Pull in only the operation implementations we need.

// This relies on a complete list of all the ops needed by this graph.

// An easier approach is to just use the AllOpsResolver, but this will

// incur some penalty in code space for op implementations that are not

// needed by this graph.

//

// tflite::AllOpsResolver resolver;

// NOLINTNEXTLINE(runtime-global-variables)

static tflite::MicroMutableOpResolver《4》 micro_op_resolver(error_reporter);

if (micro_op_resolver.AddDepthwiseConv2D() != kTfLiteOk)

{

return;

}

if (micro_op_resolver.AddFullyConnected() != kTfLiteOk)

{

return;

}

if (micro_op_resolver.AddSoftmax() != kTfLiteOk)

{

return;

}

if (micro_op_resolver.AddReshape() != kTfLiteOk)

{

return;

}

// Build an interpreter to run the model with.

static tflite::MicroInterpreter static_interpreter(

model, micro_op_resolver, tensor_arena, kTensorArenaSize, error_reporter);

interpreter = &static_interpreter;

// Allocate memory from the tensor_arena for the model’s tensors.

TfLiteStatus allocate_status = interpreter-》AllocateTensors();

if (allocate_status != kTfLiteOk)

{

TF_LITE_REPORT_ERROR(error_reporter, “AllocateTensors() failed”);

return;

}

// Get information about the memory area to use for the model‘s input.

model_input = interpreter-》input(0);

if ((model_input-》dims-》size != 2) || (model_input-》dims-》data[0] != 1) ||

(model_input-》dims-》data[1] !=

(kFeatureSliceCount * kFeatureSliceSize)) ||

(model_input-》type != kTfLiteInt8))

{

TF_LITE_REPORT_ERROR(error_reporter,

“Bad input tensor parameters in model”);

return;

}

model_input_buffer = model_input-》data.int8;

// Prepare to access the audio spectrograms from a microphone or other source

// that will provide the inputs to the neural network.

// NOLINTNEXTLINE(runtime-global-variables)

static FeatureProvider static_feature_provider(kFeatureElementCount,

feature_buffer);

feature_provider = &static_feature_provider;

static RecognizeCommands static_recognizer(error_reporter);

recognizer = &static_recognizer;

previous_time = 0;

RespondCommandThreadInit();

}

// The name of this function is important for Arduino compatibility.

void loop()

{

// Fetch the spectrogram for the current time.

const int32_t current_time = LatestAudioTimestamp();

int how_many_new_slices = 0;

TfLiteStatus feature_status = feature_provider-》PopulateFeatureData(

error_reporter, previous_time, current_time, &how_many_new_slices);

// LOG(“current_time: %d, previous_time: %d, how_many_new_slices: %d

”, current_time, previous_time, how_many_new_slices);

if (feature_status != kTfLiteOk)

{

TF_LITE_REPORT_ERROR(error_reporter, “Feature generation failed”);

return;

}

previous_time = current_time;

// If no new audio samples have been received since last time, don’t bother

// running the network model.

if (how_many_new_slices == 0)

{

//LOG(“[lk added]how_many_new_slices is 0

”);

return;

}

// Copy feature buffer to input tensor

for (int i = 0; i 《 kFeatureElementCount; i++)

{

model_input_buffer[i] = feature_buffer[i];

}

// Run the model on the spectrogram input and make sure it succeeds.

TfLiteStatus invoke_status = interpreter-》Invoke();

if (invoke_status != kTfLiteOk)

{

TF_LITE_REPORT_ERROR(error_reporter, “Invoke failed”);

return;

}

// Obtain a pointer to the output tensor

TfLiteTensor *output = interpreter-》output(0);

// Determine whether a command was recognized based on the output of inference

const char *found_command = nullptr;

uint8_t score = 0;

bool is_new_command = false;

TfLiteStatus process_status = recognizer-》ProcessLatestResults(

output, current_time, &found_command, &score, &is_new_command);

if (process_status != kTfLiteOk)

{

TF_LITE_REPORT_ERROR(error_reporter,

“RecognizeCommands::ProcessLatestResults() failed”);

return;

}

// Do something based on the recognized command. The default implementation

// just prints to the error console, but you should replace this with your

// own function for a real application.

RespondToCommand(error_reporter, current_time, found_command, score,

is_new_command);

}

案例体验

当程序烧录完成后,直接喊出“打开“/“关闭”,就可以看到视频所示的效果。目前只支持近场唤醒,唤醒距离 1 米左右。由于这个“打开”/“关闭”唤醒的语料有限,唤醒效果因人不同有差异。建议按照章节 6 中自己训练一个唤醒词或者使用数据集中的英文语料 “on/off” 试试。

自训练唤醒词

本案例是自训练了一个“打开”/“关闭”快捷唤醒词。本小节将带你训练一个新的快捷唤醒词。

从录音采集到部署到 HaaS EDU K1 的整个详细流程如下:

1. 语料采集

语料采集是一个比较耗费人力的事情,通常商业化工程中语料收集有专人或专门的数据公司收集整理,这里提供了一个使用 Python 写的录音工具,方便你快速录音。

依赖项安装

#pip install pyaudio或者#conda install pyaudio

录音配置

语音文件长度一秒

单声道、16KHz、wav 格式

快、中、慢三种不同速度进行录制

录制次数 100 次以上,次数越多效果越好

相对安静环境

1.1 唤醒词录制

录制时看到“开始录音,请说话。..。..”即可立即说出唤醒词,比如“打开”、“关闭”。由于我们检测一秒的唤醒词,所以注意要在一秒内说完整整个唤醒词,录制一次后会自动回放确认是否录制完整,如果录制完整,按回车键继续下一次录制,如果录制不完整或有其他杂音,按其他任意键删除刚才的录音再继续下一次录制。

执行命令:

#python micro_speech/train/record.py

毫无疑问,这个教学案例是教你如何录制一个人的声音,如果想要达到商业化的识别率,就至少需要 500 人以上的声音录制。如果仅仅录制你一个人的唤醒词,那么仅识别你的声音是可以的,但其他人在唤醒时的成功率就会低很多。这个案例重点是教你了解唤醒词训练部署的原理。

1.2 背景噪音录制

为了更好的识别,需要录制一些背景噪音,模型训练时会学习唤醒词和背景噪音的差别。背景噪音可以录制 1~2 分钟。模型训练时会自动从中随机选择片段作为背噪加入唤醒词中进行学习。

执行命令:

#python micro_speech/train/record_noise.py

录制背景噪音,放到 dataset/_background_noise_ 目录。

1.3 创建自己的数据集

训练脚本中默认采样的预训练数据集是 Google 发布的 Speech Commands(语音命令)数据集,该数据集是英文数据集。这里我们以录制中文的“打开”/“关闭”为例,每个词录制 100 次。录制完成后分别命名为 dakai 和 guanbi 两个文件夹放入自定义的 my_dataset 目录,然后从 Speech Commands 中选择几个单词 house、marvin、wow 等唤醒词作为“未知”类别放入到 my_only_dataset 目录,它的作用是模型训练时能够从这些唤醒词中识别想要的 dakai 和 guanbi 命令,dakai 和 guanbi 可以理解为正面示例,“未知”类别为反面示例。整个命令词个数尽量限制在十个以下,这样训练的时间不会过久。如果你有其他同样长度且与录音配置中格式一样的唤醒词,也可以加入进来。另外如果录制的是 100 次唤醒词,那么其他作为“未知”类别的唤醒词的录音示例个数也尽量在 100 左右。录制的背景噪音放入到 _background_noise_ 目录,训练时脚本将自动从中随机选取一秒片段作为背景噪音加入到“无声”类别中。

2. 模型训练

2.1 PC 端训练

PC 上在 VSCode 中使用 jupyter notebook 插件打开 tflite_micro_speech_demo/micro_speech/train/train_micro_speech_model.ipynb

进行其他唤醒词的训练。

前提:

参考《HaaS AI 之 VSCode 中搭建 Python 虚拟环境》搭建完开发环境后,安装 tensorflow 1.15 版本:

《HaaS AI 之 VSCode 中搭建 Python 虚拟环境》

https://f.cp46.cn/q5zd

#conda create --name tf python=3.6#conda activate tf#conda install tensorflow=1.15

2.2 阿里云 PAI 平台训练

如果 PC 性能有限,使用阿里云 PAI 平台进行训练也是一个不错的选择,PAI-DSW 是一款云端机器学习开发 IDE,为您提供交互式编程环境,适用于不同水平的开发者。你可以根据需要选择个人版、GPU 特价版或探索者版(免费),相关使用手册 DSW 新手使用手册。

探索者版(免费)

https://dsw-dev.data.aliyun.com/#/

DSW 新手使用手册

https://tianchi.aliyun.com/forum/postDetail?spm=TODO.TODO.header.2.21864825A5pdfB&postId=121050

以使用 DSW 个人版为例:

1. 登录 PAI 控制台。

登录 PAI 控制台

https://pai.data.aliyun.com/console

2. 在左侧导航栏,选择模型开发和训练 》 交互式建模 (DSW)。

3. 在页面左上方,选择目标地域。

4. 在 Notebook 建模服务页面,单击创建实例。

5. 在配置实例向导页面,配置参数,镜像选择 tensorflow1.15-gpu-py36-cu101-ubuntu18.04 版本。

2.3 模型配置

无论在什么平台上进行训练,脚本中需要对训练的参数进行一定的配置:

唤醒词配置

WANTED_WORDS 就是你训练的唤醒词。比如:

WANTED_WORDS=”yes, on“,yes/on 对应于数据集 dataset 目录的唤醒词语料文件夹。这里根据你要训练的唤醒词修改。

训练步数配置

如果你的唤醒词仅仅数百条甚至数 10 条,那么训练的步数不用太久,修改:

TRANINGS_STEPS=”1200, 300“

如果你有上千条以上,训练的步数可以增加。

TRANINGS_STEPS=”15000, 3000“

为了防止训练欠拟合或者过拟合,训练的时间长短需要反复验证,找到最优的结果。

数据集配置

如果使用自己的数据集,请修改:

DATASET_DIR = ‘。/dataset/’

3. 模型部署

模型部署在 HaaS EDU K1 上,主要有三个步骤:

1. 模型替换:将生成的模型文件 model.cc 替换 micro_speech/micro_features/model.cc 文件

2. 标签更新:在 micro_speech/micro_features/micro_model_settings.cc 中修改 kCategoryLabels 标签内容,将标签名更换为你训练的快捷词,比如“打开”、“关闭”。由于标签与模型的输出张量元素是按照顺序进行匹配的,因此,需要按照将标签提供给训练脚本的顺序列出这些标签。

3. 业务逻辑更新:在 micro_speech/command_responder.cc 中根据标签更新相应的业务逻辑。目前在听到“打开”后,会打开 HaaS EDU K1 上 R/G/B LED 灯。你也可以修改逻辑比如通过 WiFi 打开远程的风扇或灯。这里可以充分发挥你的想象力打造一些比较有意思的场景应用。

总结

本案例在 HaaS EDU K1 上基于 TFLite-Micro 推理引擎进行语音唤醒词的部署。也提供了从唤醒词采集到模型训练、模型部署的全链路开发流程,帮助您深入理解在低功耗 MCU 上如何进行离线语音识别的开发部署,期待您打造更多属于你的离线唤醒词应用。

责任编辑:haq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 物联网
    +关注

    关注

    2865

    文章

    41545

    浏览量

    358103
  • 开发板
    +关注

    关注

    25

    文章

    4403

    浏览量

    93784
  • 机器学习
    +关注

    关注

    66

    文章

    8095

    浏览量

    130516

原文标题:社区分享 | 基于TensorFlow Lite Micro在HaaS EDU K1物联网开发板上玩转TinyML之离线语音唤醒

文章出处:【微信号:tensorflowers,微信公众号:Tensorflowers】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE AI文档说在调用create函数前,要启用
    发表于 03-15 08:10

    如何基于深度学习模型训练实现圆检测与圆心位置预测

    Hello大家好,今天给大家分享一下如何基于深度学习模型训练实现圆检测与圆心位置预测,主要是通过对YOLOv8姿态评估模型在自定义的数据集上训练,生成一个自定义的圆检测与圆心定位预测
    的头像 发表于 12-21 10:50 651次阅读
    如何基于深度学习<b class='flag-5'>模型</b>训练实现圆<b class='flag-5'>检测</b>与圆心位置预测

    AI Transformer模型支持机器视觉对象检测方案

    使用机器视觉进行对象检测需要 AI 模型/算法在 AI 芯片、FPGA 或模块上运行。它们通常被称为“人工智能引擎”。在首次训练后,可以部署 AI
    发表于 11-23 10:31 200次阅读
    AI Transformer<b class='flag-5'>模型</b>支持机器视觉对象<b class='flag-5'>检测</b>方案

    人工智能大模型、应用场景、应用部署教程超详细资料

    人工智能是IC行业近几年的热,目前此技术已经有很多成熟的模型和落地案例。在此跟大家做个分享,更多详细资料,请自行搜索:【展锐坦克邦】,坦克邦-智算天地集算法模型部署说明于一体,为广
    发表于 11-13 14:49

    基于OpenVINO C# API部署RT-DETR模型

    RT-DETR 是在 DETR 模型基础上进行改进的,一种基于 DETR 架构的实时端到端检测器,它通过使用一系列新的技术和算法,实现了更高效的训练和推理,在前文我们发表了《基于 OpenVINO
    的头像 发表于 11-10 16:59 381次阅读
    基于OpenVINO C# API<b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    基于OpenVINO Python API部署RT-DETR模型

    RT-DETR 是在 DETR 模型基础上进行改进的,一种基于 DETR 架构的实时端到端检测器,它通过使用一系列新的技术和算法,实现了更高效的训练和推理,我们将在 Python、C++、C# 三个
    的头像 发表于 10-20 11:15 519次阅读
    基于OpenVINO Python API<b class='flag-5'>部署</b>RT-DETR<b class='flag-5'>模型</b>

    用STM32Cube.AI部署ONNX模型实操示例:风扇堵塞检测

    用STM32Cube.AI 部署ONNX 模型实操示例:风扇堵塞检测
    的头像 发表于 09-28 16:25 1787次阅读
    用STM32Cube.AI<b class='flag-5'>部署</b>ONNX<b class='flag-5'>模型</b>实操示例:风扇堵塞<b class='flag-5'>检测</b>

    K210开发板部署到开发板上后,会提示“Out of Memory”无法完成检测任务如何解决?

    您好,我想问一下嘉楠官方有没有出一套基于K210开发板进行目标检测的训练流程呢?我想训练自己的数据集并部署到亚博智能K210开发板上,在网络上找到的yolo-for-k210项目所训练
    发表于 09-14 08:35

    基于NanoEdgeAI的异常检测方案

    NanoEdge AI Studio自动创建基于三轴加速度传感器信号的AI模型,并快速部署到ST SensorTile.box开发板上,进行异常检测
    发表于 09-07 06:27

    三种主流模型部署框架YOLOv8推理演示

    部署。这里以YOLOv8为例,演示了YOLOv8对象检测模型在OpenVINO、ONNXRUNTIME、TensorRT三个主流框架上C++推理演示效果。
    的头像 发表于 08-06 11:39 1806次阅读

    如何使用TensorFlow将神经网络模型部署到移动或嵌入式设备上

    使用TensorFlow的transform_graph工具生成一个优化的8位模型,该模型效率更高,但精度较低。 4.在设备上对优化的模型进行基准测试,并选择最符合您
    发表于 08-02 06:43

    在OpenNCC上部署人脸检测模型

    电子发烧友网站提供《在OpenNCC上部署人脸检测模型.zip》资料免费下载
    发表于 06-27 10:34 0次下载
    在OpenNCC上<b class='flag-5'>部署</b>人脸<b class='flag-5'>检测</b><b class='flag-5'>模型</b>

    将Pytorch模型转换为DeepViewRT模型时出错怎么解决?

    我最终可以在 i.MX 8M Plus 处理器上部署 .rtm 模型。 我遵循了 本指南,我将 Pytorch 模型转换为 ONNX 模型,然后按照指南中的描述,我尝试将 ONNX
    发表于 06-09 06:42

    目标检测模型集成方法总结

    模型集成是一种提升模型能力的常用方法,但通常也会带来推理时间的增加,在物体检测上效果如何,可以看看。
    的头像 发表于 06-07 17:39 786次阅读
    目标<b class='flag-5'>检测</b>多<b class='flag-5'>模型</b>集成方法总结

    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标检测模型

    《在AI爱克斯开发板上用OpenVINO加速YOLOv8分类模型》介绍了在AI爱克斯开发板上使用OpenVINO 开发套件部署并测评YOLOv8的分类模型,本文将介绍在AI爱克斯开发板上使用OpenVINO加速YOLOv8目标
    的头像 发表于 05-26 11:03 707次阅读
    AI爱克斯开发板上使用OpenVINO加速YOLOv8目标<b class='flag-5'>检测</b><b class='flag-5'>模型</b>