0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

把Transformer大模型部署在端侧,IPC SoC正在普惠AI

21克888 来源:电子发烧友网 作者:黄晶晶 2023-12-08 13:50 次阅读

电子发烧友网报道(文/黄晶晶)AI大模型袭卷而来,而如何让终端产品插上AI的翅膀会是芯片厂商研发的方向和市场的机会。如今网络摄像机作为智慧城市、智能家居等应用的主流终端发展迅速,IPC SoC芯片是其核心之一。最近爱芯元智带来的两款IPC SoC新品在黑光全彩处理、适配Transformer大模型等方面表现十分亮眼,爱芯元智副总裁史欣也向媒体分享了公司对IPC SoC高清化、智能化发展的洞察。

两款IPC SoC:AX630C和AX620Q




爱芯元智带来的两款新产品AX630C和AX620Q都搭载了最新的爱芯智眸AI-ISP4.0图像处理引擎以及爱芯通元4.0高性能、低功耗的NPU引擎。这些技术的升级使得这两款产品在视频图像效果、智能业务处理和分析等方面均达到了业界的领先水平。

爱芯智眸AI-ISP4.0对HDR、去噪、demosaic、锐化、去雾等算法做了升级,在暗光下的噪声处理、色彩还原、运动拖影、清晰度等方面较上一代产品更优秀,通过AI赋能ISP Pipeline里的关键模块,在各种复杂应用场景中全面提升成像效果,为后期智能处理提供高质量的图像、视频素材。

爱芯通元混合精度NPU则通过减少数据搬运,在一定程度上减小了内存墙和功耗墙的阻碍,提高整个NPU的效率,从而在端侧边缘侧面积、功耗受限的情况下,以更高的有效算力支持更多的智能算法。

爱芯元智的“真黑光”技术,则是通过爱芯智眸AI-ISP将画面真实还原,后续再通过NPU进行优化,进行更加准确的图像处理,在极低照度下获得超越人眼所见的黑光全彩效果。

AX630C具有高算力的特征,其CPU采用双核A53@1.2G,配合3.2T@INT8的NPU以及硬化的CV算子模块,可以对4K图像进行实时的智能处理,提高客户智能算法处理的精度和性能。同时,AX630C新一代的NPU引擎支持主流的Transformer网络如ViT/DeiT/Swin/SwinV2/DETR等,可以解决训练数据集不足引起的算法精度下降,以及长尾场景下算法的泛化性问题。

据介绍,AX630C是爱芯元智面向智慧城市行业前端IPC市场推出的超高清智能SoC,可支持4K@30fps实时真黑光;AX620Q是爱芯元智面向模组与渠道行业前端IPC市场推出的高清智能SoC,可支持5Mp实时、4K非实时的真黑光。

从细节上看,为了实现黑光全彩的效果,爱芯智眸AI-ISP4.0集中对四个关键模块进行了算法升级。史欣分析,传统ISP由十几个模块组成,在算力足够大的时候若不考虑成本可以用AI模型去增加每一个模块。而爱芯元智结合了客户的痛点需求和成本因素,对pipeline模块中HDR、3DNR、RLTM、Demosaic等进行了增强,达到了色彩饱和度高、运动图像无拖尾,以及噪声、锐化、清晰度等效果的显著提高。后续,爱芯元智还将针对防抖、3A等模块进行优化。

这其中的另一个问题是AI的算力消耗,本质上来说尽可能将模块的精确度提高就能更少的消费算力。史欣举例说,例如做人脸处理是对整个区域或者部分区域做降噪,消费的算力不一样。原来在400万分辨率的情况下需要1T做整个AI-ISP的处理,现在爱芯元智的第三、四代产品已经降到了0.6甚至0.5T,接下来可以做到0.2T就可以完成3DNR降噪的算力消耗,既能降低芯片成本,又可以留出更多的算力让客户开发更多可能。

Transformer在智慧城市中的应用


“Transformer应用的一个典型场景是对信息特征的检索,从最早期的后端处理、服务器处理,算法上云,到目前开始进入算法在边缘侧的部署等等,但始终没有解决端侧部署的问题。大的厂商能够根据行业应用来适配模型大小,而Transformer兴起之后将带来更多具象化的信息,使得检索更容易、并缩减检索的时间。”史欣说道。

爱芯元智能够帮助客户把在服务器、云端训练好的算法在裁剪之后在端侧部署。这里既有部署性包括带宽、功耗、成本等的考虑,也有精度的要求。爱芯元智通过几年来在NPU和算法工具链的迭代,IPC SoC能够支持算法的快速部署、保证精度,具备端侧部署的软硬件条件。



不仅是Transformer大模型,爱芯元智还在适配国内的DINOv2大模型,爱芯元智依托硬件NPU、软件算法等技术并与合作伙伴共同推出算法部署国产化。

普惠AI


我们看到爱芯元智有一个非常明确的发展理念,即是普惠AI。AI不应只在云端,更应该让消费、智慧城市、汽车等各个行业受惠。史欣谈到,客户希望能够从To G或者To大B的业务部署向To小B,甚至To C的业务上进行部署。即便是家用摄像头这个普及型消费电子产品,也需要AI-ISP加持,那么更需要像爱芯元智这样具备软硬件能力的厂商通过产品技术、性价比等去拥抱市场。

对于AI芯片的发展趋势,史总给出预判,他认为端侧AI的小型化将越来越多的落地,同时其性能要有前瞻性和较高的性价比。同时产品的易用性加强,芯片厂商的方案交付要更简单。同时除了自身掌握关键技术之外,也需要生态合作伙伴做更丰富的算法和软件,如此才能加快AI的普惠化,助力智能化产业升级。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    87

    文章

    26443

    浏览量

    264044
  • 智能城市
    +关注

    关注

    1

    文章

    164

    浏览量

    20656
  • 爱芯元智
    +关注

    关注

    1

    文章

    54

    浏览量

    4448
收藏 人收藏

    评论

    相关推荐

    防止AI模型被黑客病毒入侵控制(原创)聆思大模型AI开发套件评测4

    设计中集成硬件安全模块(HSM),该模块可以提供安全的存储、加密和解密服务。 安全密钥管理 :使用HSM生成、存储和管理用于保护AI模型的加密密钥。 2. AI模型的安全封装
    发表于 03-19 11:18

    使用CUBEAI部署tflite模型到STM32F0中,模型创建失败怎么解决?

    看到CUBE_AI已经支持到STM32F0系列芯片,就想拿来入门嵌入式AI。 生成的模型很小,是可以部署到F0上的,但是一直无法创建成功。 查阅CUBE
    发表于 03-15 08:10

    基于Transformer模型的压缩方法

    基于Transformer架构的大型模型在人工智能领域中发挥着日益重要的作用,特别是在自然语言处理(NLP)和计算机视觉(CV)领域。
    的头像 发表于 02-22 16:27 275次阅读
    基于<b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>的压缩方法

    AI模型怎么解决芯片过剩?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:42:05

    AI模型可以设计电路吗?

    AI模型
    电子发烧友网官方
    发布于 :2024年01月02日 15:09:29

    【爱芯派 Pro 开发板试用体验】爱芯派部署ChatGLM3(一)

    ,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。 3,更高效:ChatGLM3 还可手机部署
    发表于 12-17 22:54

    【爱芯派 Pro 开发板试用体验】模型部署(以mobilenetV2为例)

    的,只不过主角这次换成了pulsar2: 1、先在服务器上训练好网络模型,并以一个通用的中间形式导出(通常是onnx) 2、根据你要使用的推理引擎进行离线转换,onnx转换成你的推理引擎能部署
    发表于 12-10 16:34

    AI Transformer模型支持机器视觉对象检测方案

    使用机器视觉进行对象检测需要 AI 模型/算法在 AI 芯片、FPGA 或模块上运行。它们通常被称为“人工智能引擎”。在首次训练后,可以部署 AI
    发表于 11-23 10:31 207次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>Transformer</b><b class='flag-5'>模型</b>支持机器视觉对象检测方案

    【KV260视觉入门套件试用体验】Vitis AI 构建开发环境,并使用inspector检查模型

    推断开发平台,它可以帮助开发者赛灵思的 FPGA 和自适应 SoC 上实现高效的 AI 应用部署。它是一个强大而灵活的 AI 开发平台,
    发表于 10-14 15:34

    阿里平头哥发布首个 RISC-V AI 软硬全栈平台

    HHB 实现了典型网络性能比第三方工具平均提升 88%,并增加支持运行 Transformer、TensorFlow、PyTorch 等 170 余个主流框架 AI 模型。 基于此
    发表于 08-26 14:14

    Ai 部署的临界考虑电子指南

    虽然GPU解决方案对训练,AI部署需要更多。 预计到2020年代中期,人工智能行业将增长到200亿美元,其中大部分增长是人工智能推理。英特尔Xeon可扩展处理器约占运行AI推理的处理器单元的70
    发表于 08-04 07:25

    transformer模型详解:Transformer 模型的压缩方法

     动机&背景 Transformer 模型在各种自然语言任务中取得了显著的成果,但内存和计算资源的瓶颈阻碍了其实用化部署。低秩近似和结构化剪枝是缓解这一瓶颈的主流方法。然而,作者通过分析发现,结构化
    的头像 发表于 07-17 10:50 1344次阅读
    <b class='flag-5'>transformer</b><b class='flag-5'>模型</b>详解:<b class='flag-5'>Transformer</b> <b class='flag-5'>模型</b>的压缩方法

    边缘AI应用越来越普遍,AI模型在边缘端如何部署

    电子发烧友网报道(文/李弯弯)在人工智能时代,越来越多的AI应用需要从云端扩展到边缘端,比如智能耳机、智能摄像机、智能手环、物流机器人等,在边缘端部署AI已经成为趋势。如今AI
    的头像 发表于 07-04 00:11 1938次阅读
    边缘<b class='flag-5'>AI</b>应用越来越普遍,<b class='flag-5'>AI</b><b class='flag-5'>模型</b>在边缘端如何<b class='flag-5'>部署</b>?

    基于Transformer的大型语言模型(LLM)的内部机制

    本文旨在更好地理解基于 Transformer 的大型语言模型(LLM)的内部机制,以提高它们的可靠性和可解释性。 随着大型语言模型(LLM)在使用和部署方面的不断增加,打开黑箱并了解
    的头像 发表于 06-25 15:08 1037次阅读
    基于<b class='flag-5'>Transformer</b>的大型语言<b class='flag-5'>模型</b>(LLM)的内部机制

    爱芯元智AX650N成端侧、边缘侧Transformer最佳落地平台

    Transformer是当前各种大模型所采用的主要结构,而ChatGPT的火爆让人们逐渐意识到人工智能有着更高的上限,并可以在计算机视觉领域发挥出巨大潜能。相比于在云端用GPU部署Transf
    的头像 发表于 05-30 11:04 648次阅读
    爱芯元智AX650N成端侧、边缘侧<b class='flag-5'>Transformer</b>最佳落地平台