0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

最大限度地减少算法占用空间并在AI网络边缘进行训练

星星科技指导员 来源:嵌入式计算设计 作者:Yasser Khan 2022-11-24 15:24 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

数据处理当然不是一个新概念,算法也不是。然而,算法被训练和运行的地方正在迅速发展。近年来,机器学习(ML)算法的训练基本上是在云环境中进行的,因为能够利用临时计算资源来执行这些数据密集型任务。

如今,人们大力推动尽可能靠近源头处理数据。这是由于物联网IoT)和现在正在生成大量数据的各种技术的出现。所有这些数据都让组织争先恐后地以经济高效的方式充分利用它。组织需要考虑从原始源到处理位置的数据传输成本,以及存储和处理数据的成本,这通常是在资源密集型服务器/云环境中。

人工智能AI) 技术开始出现,可以在低计算功率设备(如基于 ESP32 和 Cortex M4 的微控制器单元 (MCU))上实现 ML 模型训练和执行,而不是更大的微处理器单元 (MPU)。这允许数据保持本地,并且仅在必要时在云中传输已处理的数据。

通过将训练和运行 ML 模型的总体占用空间要求降低到 100kb 以下,嵌入式计算中的 AI 正在进入一个新的领域。例如,与合并排序算法相比,嵌入式算法工程师更欢迎气泡排序算法,因为前者使用现有内存。尽管已经存在许多算法,但正在针对嵌入式环境开发和优化新的基于AI的时间序列预测算法。通过这种新方法,AI/ML模型在嵌入式板上进行训练。然后,这些模型用于在执行期间执行多变量统计推断。

这些新的基于AI的时间序列预测算法有三个优点:

该解决方案与网络延迟无关,因为计算是在本地板上进行的,因此性能得到了提高。

原始数据的安全/隐私得到保证,因为原始信号/数据只出现在本地。

对于每个嵌入式板,都会训练一个新的 ML/AI 模型。这可能是这种方法的核心优势,因为在典型的工业案例中,由于环境变体、传感器的缺陷和机器变体,不可能使用单个 ML/AI 模型来覆盖机器特征集群。使用云服务器为每个嵌入式板训练模型也不是负担得起的。

技术突破

算法在嵌入式计算中发挥着重要作用。通常,嵌入式设备执行的算法任务包括传感器数据清理/过滤、数据编码/解码和控制信号生成。由于内存容量、CPU 功率和架构不同,嵌入式计算环境中“最佳算法”的定义可能与 PC 和云服务器中“最佳算法”的定义大不相同。

在过去的几年里,AI/ML算法取得了突破和非常迅速的进步。许多努力都集中在将AI / ML模型(这些模型在其他地方训练)引入嵌入式上下文。换句话说,要成功部署 AI/ML 模型,需要优化算法的内存/CPU 使用率和功耗。

人工智能正在缩小,可以运行这些高级算法。技术进步现在允许人工智能和预测性维护从基于 MPU 的设备转向基于 MCU 的设备,占用空间小,价格显著降低。基于 MCU 的设备现在可以在网络边缘执行以前仅在 MPU 上提供的任务(例如预测性维护)。这一新功能使芯片制造商、原始设备制造商 (OEM) 和智能设备制造商能够降低成本并提供差异化的产品。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    20148

    浏览量

    247107
  • mcu
    mcu
    +关注

    关注

    147

    文章

    18605

    浏览量

    386965
  • 物联网
    +关注

    关注

    2939

    文章

    47317

    浏览量

    407813
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片

    、现阶段更智能、更接近AGI的6中算法与模型 1、MoE模型 MoE模型作为Transfomer模型的后继者,代表着AI技术的一项重大创新和发展。 优势: 在于能处理庞大的参数规模,显著减少内存
    发表于 09-18 15:31

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    算法 5.2加速矩阵乘法的芯片架构 ①新的矩阵乘法器架构 ②基于RISC-V的矩阵乘法扩展指令集 ③用信息论的思想来减少AI推理计算量 三、用于边缘
    发表于 09-12 17:30

    AI 边缘计算网关:开启智能新时代的钥匙​—龙兴物联

    顺畅地通向云端,实现设备与云端之间高效的数据传输与交互。通过融合先进的边缘计算和人工智能技术,AI 边缘计算网关能够在靠近数据源的网络边缘
    发表于 08-09 16:40

    边缘智能网关在水务行业中的应用—龙兴物联

    海量实时数据的上云带宽需求。 保障供水安全:‌ 快速响应突发污染,最大限度减少影响范围。 管网泄漏监测与定位‌ 应用:‌ 在供水管网部署压力、流量、声波振动传感器,边缘网关实时分析数据流。 优势
    发表于 08-02 18:28

    超小型Neuton机器学习模型, 在任何系统级芯片(SoC)上解锁边缘人工智能应用.

    Neuton 是一家边缘AI 公司,致力于让机器 学习模型更易于使用。它创建的模型比竞争对手的框架小10 倍,速度也快10 倍,甚至可以在最先进的边缘设备上进行人工智能处理。在这篇博文
    发表于 07-31 11:38

    海思SD3403边缘计算AI数据训练概述

    AI数据训练:基于用户特定应用场景,用户采集照片或视频,通过AI数据训练工程师**(用户公司****员工)** ,进行特征标定后,将标定好的
    发表于 04-28 11:11

    Deepseek海思SD3403边缘计算AI产品系统

    海思SD3403边缘计算AI框架,提供了一套开放式AI训练产品工具包,解决客户低成本AI系统,针对差异化
    发表于 04-28 11:05

    CSD17585F5 30V、N 通道 NexFET™ 功率 MOSFET、单个 LGA 0.8mm x 1.5mm、33mOhm、栅极 ESD 保护数据手册

    这种 30V、22mΩ、N 沟道 FemtoFET™ MOSFET 技术经过设计和优化,可在许多手持式和移动应用中最大限度减少占用空间。该技术能够取代标准小信号 MOSFET,同时显
    的头像 发表于 04-16 11:15 597次阅读
    CSD17585F5 30V、N 通道 NexFET™ 功率 MOSFET、单个 LGA 0.8mm x 1.5mm、33mOhm、栅极 ESD 保护数据手册

    CSD13380F3 12V、N 通道 NexFET™ 功率 MOSFET、单个 LGA 0.6mm x 0.7mm、76mOhm、栅极 ESD 保护技术手册

    这款 63mΩ、12V N 沟道 FemtoFET™ MOSFET 经过设计和优化,可在许多手持式和移动应用中最大限度减少占用空间。该技术能够取代标准小信号 MOSFET,同时大幅减
    的头像 发表于 04-16 11:10 549次阅读
    CSD13380F3 12V、N 通道 NexFET™ 功率 MOSFET、单个 LGA 0.6mm x 0.7mm、76mOhm、栅极 ESD 保护技术手册

    适用于数据中心和AI时代的800G网络

    随着人工智能(AI)技术的迅猛发展,数据中心面临着前所未有的计算和网络压力。从大语言模型(LLM)训练到生成式AI应用,海量数据处理需求推动了网络
    发表于 03-25 17:35

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    AI赋能边缘网关:开启智能时代的新蓝海

    。这一变革不仅带来了技术架构的革新,更为产业发展开辟了新的增长空间。 传统边缘网关受限于计算能力和算法支持,往往只能完成数据采集和简单处理,大量原始数据需要回传云端处理,导致响应延迟和带宽压力。
    发表于 02-15 11:41

    智能电机控制装置如何最大限度地提高恢复能力和正常运行时间

    作者:Jeff Shepard 投稿人:DigiKey 北美编辑 在下一代工业 4.0 制造、金属与基础材料加工、矿物提炼与采矿以及像饮用水和污水处理厂之类关键基础设施中,都需要能够最大限度地提高
    的头像 发表于 01-25 16:40 1272次阅读
    智能电机控制装置如何<b class='flag-5'>最大限度</b>地提高恢复能力和正常运行时间

    AN101-最大限度减少线性稳压器输出中的开关稳压器残留

    电子发烧友网站提供《AN101-最大限度减少线性稳压器输出中的开关稳压器残留.pdf》资料免费下载
    发表于 01-09 14:19 0次下载
    AN101-<b class='flag-5'>最大限度</b>地<b class='flag-5'>减少</b>线性稳压器输出中的开关稳压器残留

    AI模型部署边缘设备的奇妙之旅:目标检测模型

    。 填充(Padding): 填充(Padding)是在卷积神经网络(CNN)中为输入张量的边缘添加额外的像素,以控制输出特征图的大小并保持输入图像的空间尺寸。填充有助于保留输入图像边缘
    发表于 12-19 14:33