0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Ambarella展示了在其CV3-AD芯片上运行LLM的能力

Astroys 来源:Astroys 2023-11-28 09:05 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

Ambarella前不久展示了在其CV3-AD芯片上运行LLM的能力。这款芯片是CV3系列中最强大的,专为自动驾驶设计。

CV3-AD一年前开始出样,使用Ambarella现有的AI软件堆栈,运行Llama2-13B模型时,可以实现每秒推理25个token。

Ambarella的CEO Fermi Wang表示:“当transformer在今年早些时候变得流行时,我们开始问自己,我们拥有一个强大的推理引擎,我们能做到吗?我们进行了一些快速研究,发现我们确实可以。我们估计我们的性能可能接近Nvidia A100。”

Ambarella工程师正在展示Llama2-13B在CV3-AD上的实时演示,CV3-AD是一款50W的自动驾驶芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一个GVP(General Vector Processor),演示中的LLM正在NVP上运行。NVP采用数据流架构,Ambarella已将诸如卷积之类的高级运算符指令组合成图表,描述数据如何通过处理器进行该运算符的处理。所有这些运算符之间的通信都使用片上内存完成。CV3系列使用LPDDR5(而非HBM),功耗约为50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示确实需要一些新软件。实现transformer架构核心操作的构建模块,目前这些操作针对的是像Llama2这样的模型。

他说:“随着时间的推移,我们将扩展这些功能以覆盖其它模型,但Llama2正在成为开源世界的事实标准。这绝对是一项不小的投资,但与从头开始开发软件相比,还差得远。”

Edge LLM发展路线图‍‍‍‍‍

Wang表示:“现在我们知道我们拥有这项技术,我们可以解决一些实际问题。如果你与LLM的研发人员交谈,问他们最头疼的是什么,一个显然是价格,另一个是功耗。”

CV3-AD设计用于50W的功率范围(包括整个芯片的功率,不仅仅是AI加速器)。因此,Wang希望Ambarella能够以大约四分之一的功耗,为LLM提供与A100相似的性能。

他说:“这意味着对于固定的数据中心功率,我可以增加四倍的AI性能。这是巨大的价值。尽管这种想法很简单,但我们相信我们可以为渴望使用LLM的任何人提供价值。在过去的六个月里,渴望使用LLM的人数迅速增加。”

虽然超大规模计算中心可能是首批跟进LLM趋势的,但Ambarella在安防摄像头和汽车领域的现有客户开始考虑如何在他们的边缘系统中实施LLM,以及LLM将如何实施他们的发展路线图。

Wang说:“我们相信LLM将成为我们需要在路线图中为当前客户提供的重要技术。当前的CV3可以运行LLM,而无需Ambarella进行太多额外的工程投资,所以这对我们来说并非分心之事。我们当前的市场在他们的路线图中已经有了LLM。” 多模态AI‍‍‍‍ Kohn指出,在边缘计算中,具有生成文本和图像能力的大型多模态生成型AI潜力日益增大。

他说:“对于像机器人这样的应用,transformer网络已经可以用于计算机视觉处理,这比任何传统计算机视觉模型都要强大,因为这种模型可以处理零样本学习,这是小模型无法做到的。”

零样本学习指的是模型能够推断出在其训练数据中未出现的对象类别的信息。这意味着模型可以以更强大的方式预测和处理边缘情况,这在自动系统中尤其重要。

他补充说:“自动驾驶本质上是一种机器人应用:如果你看看L4/L5系统需要什么,很明显你需要更强大、更通用的AI模型,这些模型能以更类似于人类的方式理解世界,超越我们今天的水平。我们将这看作是为各种边缘应用获取更强大的AI处理能力的一种方式。”

LLM发展路线图‍‍

问及Ambarella是否会制造专门针对LLM的边缘芯片时,Wang表示:“这可能是我们需要考虑的事情。我们需要一个具有更多AI性能的LLM路线图。LLM本身需要大量的DRAM带宽,这几乎使得在芯片上集成其他功能变得不可能(因为其他功能也需要DRAM带宽)。”

Wang说,尽管在某些人看来,一个大型信息娱乐芯片应该能够同时处理其他工作负载和LLM,但目前这是不可能的。LLM所需的性能和带宽或多或少地需要一个单独的加速器。

Kohn补充说:“这取决于模型的大小。我们可能会看到目前使用的模型比较小的版本应用于像机器人学这样的领域,因为它们不需要处理大型模型所做的所有通用事务。但与此同时,人们希望有更强大的性能。所以,我认为最终我们将看到未来更优化的解决方案,它们将被应用于不同的价格/性能点。”

在边缘计算之外,CV3系列也有可能在数据中心中使用。Kohn说,CV3系列有多个PCIe接口,这在多芯片系统中可能很有用。他还补充说,该公司已经有一个可以利用的PCIe卡。

Wang表示:“对我们来说,真正的问题是,‘我们能否将当前产品和未来产品销售到超大规模计算中心或基于云的解决方案中?’这是一个我们还没有回答的问题,但我们已经确认了技术的可行性,并且我们有一些差异化。我们知道我们可以将这种产品销售到边缘设备和边缘服务器。我们正在制定一个计划,希望如果我们想要进入基于云的解决方案,我们可以证明进一步投资是合理的。”







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    20148

    浏览量

    246925
  • 机器人
    +关注

    关注

    213

    文章

    30574

    浏览量

    219430
  • LPDDR5
    +关注

    关注

    2

    文章

    92

    浏览量

    13170
  • 自动驾驶芯片

    关注

    3

    文章

    48

    浏览量

    5398
  • LLM
    LLM
    +关注

    关注

    1

    文章

    340

    浏览量

    1256

原文标题:Ambarella展示在自动驾驶芯片上的LLM推理能力

文章出处:【微信号:Astroys,微信公众号:Astroys】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    客户案例 | Imagination GPU助力安霸 CV3-AD655 环视系统

    安霸的CV3-AD655智能驾驶AI域控制器将高能效计算能力与Imagination的IMGBXMGPU相结合,为L2++/L3级车辆实现实时环视可视化。本案例介绍行业正向集中式域控
    的头像 发表于 11-14 10:29 1725次阅读
    客户案例 | Imagination GPU助力安霸 <b class='flag-5'>CV3</b>-AD655 环视系统

    【CIE全国RISC-V创新应用大赛】+ 一种基于LLM的可通过图像语音控制的元件库管理工具

    成本下长时间的维持运营一个良好的库存环境。本项目实现多模态同步,在项目中联合调用了CV(OCR),ASR,LLM。 主要功能构想 ​ 1.实现用户将采购单或元器件标签或元器件(下文称输入资料)放置或
    发表于 11-12 19:32

    NVIDIA TensorRT LLM 1.0推理框架正式上线

    ,TensorRT LLM 还承担着推理领域新技术载体的角色,通过将前沿创新引入 LLM 推理生态,持续提升整个生态系统合作伙伴的技术能力
    的头像 发表于 10-21 11:04 740次阅读

    米尔RK3576部署端侧多模态多轮对话,6TOPS算力驱动30亿参数LLM

    话:基于历史回答图中女孩头发和衣服分别是什么颜色 一次我们详细讲解在RK3576上部署多模态模型的案例,这次将继续讲解多轮对话的部署流程。整体流程基于 rknn-llm 里的多轮对话案例[1
    发表于 09-05 17:25

    如何在魔搭社区使用TensorRT-LLM加速优化Qwen3系列模型推理部署

    TensorRT-LLM 作为 NVIDIA 专为 LLM 推理部署加速优化的开源库,可帮助开发者快速利用最新 LLM 完成应用原型验证与产品部署。
    的头像 发表于 07-04 14:38 1729次阅读

    使用 llm-agent-rag-llamaindex 笔记本时收到的 NPU 错误怎么解决?

    使用 conda create -n ov-nb-demos python=3.11 创建运行 llm-agent-rag-llamaindex notebook 的环境。 执行“创建
    发表于 06-23 06:26

    LM Studio使用NVIDIA技术加速LLM性能

    随着 AI 使用场景不断扩展(从文档摘要到定制化软件代理),开发者和技术爱好者正在寻求以更 快、更灵活的方式来运行大语言模型(LLM)。
    的头像 发表于 06-06 15:14 769次阅读
    LM Studio使用NVIDIA技术加速<b class='flag-5'>LLM</b>性能

    详解 LLM 推理模型的现状

    2025年,如何提升大型语言模型(LLM)的推理能力成了最热门的话题之一,大量优化推理能力的新策略开始出现,包括扩展推理时间计算、运用强化学习、开展监督微调和进行提炼等。本文将深入探讨LLM
    的头像 发表于 04-03 12:09 1234次阅读
    详解 <b class='flag-5'>LLM</b> 推理模型的现状

    无法在OVMS运行来自Meta的大型语言模型 (LLM),为什么?

    无法在 OVMS 运行来自 Meta 的大型语言模型 (LLM),例如 LLaMa2。 从 OVMS GitHub* 存储库运行 llama_chat Python* Demo 时
    发表于 03-05 08:07

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    处理器,集成了3.2TOPs@INT8算力的高能效NPU,提供强大的AI推理能力,能够高效执行复杂的视觉(CV)及大语言模型(LLM)任务,满足各类智能应用场景的需求
    的头像 发表于 01-17 18:48 1191次阅读
    新品| <b class='flag-5'>LLM</b>630 Compute Kit,AI 大语言模型推理开发平台

    海力士展示AI专用计算内存解决方案AiMX-xPU

    在Hot Chips 2024,海力士专注于AI加速器的标准DRAM之外的产品。该公司展示其在内存计算方面的最新进展,这次是用其AiMX-xPU和LPDDR-AiM进行LLM推理。
    的头像 发表于 01-09 16:08 1244次阅读
    海力士<b class='flag-5'>展示</b>AI专用计算内存解决方案AiMX-xPU

    小白学大模型:构建LLM的关键步骤

    随着大规模语言模型(LLM)在性能、成本和应用前景的快速发展,越来越多的团队开始探索如何自主训练LLM模型。然而,是否从零开始训练一个LLM,并非每个组织都适合。本文将根据不同的需求
    的头像 发表于 01-09 12:12 1546次阅读
    小白学大模型:构建<b class='flag-5'>LLM</b>的关键步骤

    安霸发布N1-655前端生成式AI芯片

    Ambarella(下称“安霸”,纳斯达克股票代码:AMBA,AI 视觉感知芯片公司)在 CES 发布 N1-655 前端生成式 AI 芯片
    的头像 发表于 01-09 10:29 1488次阅读

    ADS1278电后运行一段时间后DRDY信号就没有,为什么?

    。没有办法,我们重新焊接了3块样板,但这 3 块怎么都没有 DRDY 信号出现,后来我们将第一块运行一段时间 DRDY 信号丢失的那个 ADS1278 芯片和后来的样板
    发表于 01-09 07:55

    Neuchips展示大模型推理ASIC芯片

    领先的AI专用集成电路(ASIC)解决方案提供商Neuchips在CES 2024展示其革命性的Raptor Gen AI加速芯片(以前称为N3000)和Evo PCIe加速卡
    的头像 发表于 01-06 17:30 1275次阅读