0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Ambarella展示了在其CV3-AD芯片上运行LLM的能力

Astroys 来源:Astroys 2023-11-28 09:05 次阅读

Ambarella前不久展示了在其CV3-AD芯片上运行LLM的能力。这款芯片是CV3系列中最强大的,专为自动驾驶设计。

CV3-AD一年前开始出样,使用Ambarella现有的AI软件堆栈,运行Llama2-13B模型时,可以实现每秒推理25个token。

Ambarella的CEO Fermi Wang表示:“当transformer在今年早些时候变得流行时,我们开始问自己,我们拥有一个强大的推理引擎,我们能做到吗?我们进行了一些快速研究,发现我们确实可以。我们估计我们的性能可能接近Nvidia A100。”

Ambarella工程师正在展示Llama2-13B在CV3-AD上的实时演示,CV3-AD是一款50W的自动驾驶芯片。

Ambarella芯片上的CVFlow引擎包括其NVP(Neural Vector Processor)和一个GVP(General Vector Processor),演示中的LLM正在NVP上运行。NVP采用数据流架构,Ambarella已将诸如卷积之类的高级运算符指令组合成图表,描述数据如何通过处理器进行该运算符的处理。所有这些运算符之间的通信都使用片上内存完成。CV3系列使用LPDDR5(而非HBM),功耗约为50W。

268a3c3c-8d86-11ee-939d-92fbcf53809c.png

Ambarella的CTO Les Kohn表示,LLM演示确实需要一些新软件。实现transformer架构核心操作的构建模块,目前这些操作针对的是像Llama2这样的模型。

他说:“随着时间的推移,我们将扩展这些功能以覆盖其它模型,但Llama2正在成为开源世界的事实标准。这绝对是一项不小的投资,但与从头开始开发软件相比,还差得远。”

Edge LLM发展路线图‍‍‍‍‍

Wang表示:“现在我们知道我们拥有这项技术,我们可以解决一些实际问题。如果你与LLM的研发人员交谈,问他们最头疼的是什么,一个显然是价格,另一个是功耗。”

CV3-AD设计用于50W的功率范围(包括整个芯片的功率,不仅仅是AI加速器)。因此,Wang希望Ambarella能够以大约四分之一的功耗,为LLM提供与A100相似的性能。

他说:“这意味着对于固定的数据中心功率,我可以增加四倍的AI性能。这是巨大的价值。尽管这种想法很简单,但我们相信我们可以为渴望使用LLM的任何人提供价值。在过去的六个月里,渴望使用LLM的人数迅速增加。”

虽然超大规模计算中心可能是首批跟进LLM趋势的,但Ambarella在安防摄像头和汽车领域的现有客户开始考虑如何在他们的边缘系统中实施LLM,以及LLM将如何实施他们的发展路线图。

Wang说:“我们相信LLM将成为我们需要在路线图中为当前客户提供的重要技术。当前的CV3可以运行LLM,而无需Ambarella进行太多额外的工程投资,所以这对我们来说并非分心之事。我们当前的市场在他们的路线图中已经有了LLM。” 多模态AI‍‍‍‍ Kohn指出,在边缘计算中,具有生成文本和图像能力的大型多模态生成型AI潜力日益增大。

他说:“对于像机器人这样的应用,transformer网络已经可以用于计算机视觉处理,这比任何传统计算机视觉模型都要强大,因为这种模型可以处理零样本学习,这是小模型无法做到的。”

零样本学习指的是模型能够推断出在其训练数据中未出现的对象类别的信息。这意味着模型可以以更强大的方式预测和处理边缘情况,这在自动系统中尤其重要。

他补充说:“自动驾驶本质上是一种机器人应用:如果你看看L4/L5系统需要什么,很明显你需要更强大、更通用的AI模型,这些模型能以更类似于人类的方式理解世界,超越我们今天的水平。我们将这看作是为各种边缘应用获取更强大的AI处理能力的一种方式。”

LLM发展路线图‍‍

问及Ambarella是否会制造专门针对LLM的边缘芯片时,Wang表示:“这可能是我们需要考虑的事情。我们需要一个具有更多AI性能的LLM路线图。LLM本身需要大量的DRAM带宽,这几乎使得在芯片上集成其他功能变得不可能(因为其他功能也需要DRAM带宽)。”

Wang说,尽管在某些人看来,一个大型信息娱乐芯片应该能够同时处理其他工作负载和LLM,但目前这是不可能的。LLM所需的性能和带宽或多或少地需要一个单独的加速器。

Kohn补充说:“这取决于模型的大小。我们可能会看到目前使用的模型比较小的版本应用于像机器人学这样的领域,因为它们不需要处理大型模型所做的所有通用事务。但与此同时,人们希望有更强大的性能。所以,我认为最终我们将看到未来更优化的解决方案,它们将被应用于不同的价格/性能点。”

在边缘计算之外,CV3系列也有可能在数据中心中使用。Kohn说,CV3系列有多个PCIe接口,这在多芯片系统中可能很有用。他还补充说,该公司已经有一个可以利用的PCIe卡。

Wang表示:“对我们来说,真正的问题是,‘我们能否将当前产品和未来产品销售到超大规模计算中心或基于云的解决方案中?’这是一个我们还没有回答的问题,但我们已经确认了技术的可行性,并且我们有一些差异化。我们知道我们可以将这种产品销售到边缘设备和边缘服务器。我们正在制定一个计划,希望如果我们想要进入基于云的解决方案,我们可以证明进一步投资是合理的。”







审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    18275

    浏览量

    222158
  • 机器人
    +关注

    关注

    206

    文章

    27033

    浏览量

    201400
  • LPDDR5
    +关注

    关注

    2

    文章

    86

    浏览量

    11766
  • 自动驾驶芯片

    关注

    3

    文章

    44

    浏览量

    5024
  • LLM
    LLM
    +关注

    关注

    0

    文章

    201

    浏览量

    233

原文标题:Ambarella展示在自动驾驶芯片上的LLM推理能力

文章出处:【微信号:Astroys,微信公众号:Astroys】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    安霸发布5nm制程的CV75S系列芯片,进一步拓宽AI SoC产品路线图

    安防展(ISC West)期间发布 5nm 制程的 CV75S 系列芯片,进一步拓宽其 AI SoC 产品路线图。
    的头像 发表于 04-09 10:26 367次阅读

    安霸发布N1系列生成式AI芯片支持前端设备运行本地LLM应用

    单颗 SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成式 AI。
    的头像 发表于 01-09 15:19 626次阅读

    安霸CV3-AD685 AI域控芯片助力Kodiak开发下一代自动驾驶卡车

    安霸的 CV3-AD685 AI 域控芯片来开发其新一代自动驾驶卡车使用的嵌入式计算解决方案。通过该芯片,Kodiak 的域控制器支持多个摄像头、激光雷达和毫米波雷达的同时输入,并通过 CVflow
    的头像 发表于 01-03 10:08 624次阅读

    TensorRT-LLM初探(一)运行llama

    TensorRT-LLM正式出来有半个月了,一直没有时间玩,周末趁着有时间跑一下。
    的头像 发表于 11-16 17:39 832次阅读
    TensorRT-<b class='flag-5'>LLM</b>初探(一)<b class='flag-5'>运行</b>llama

    AT32工程在M3内核芯片运行使用注意事项

    AT32 工程在 M3 内核芯片运行进入硬件错误处理函数(HardFault_Handler)?
    发表于 10-20 06:48

    对比解码在LLM上的应用

    为了改进LLM的推理能力,University of California联合Meta AI实验室提出将Contrastive Decoding应用于多种任务的LLM方法。实验表明,所提方法能有效改进
    发表于 09-21 11:37 371次阅读
    对比解码在<b class='flag-5'>LLM</b>上的应用

    如何将host的bgr planar cv::Mat变成host的BGR packed cv::Mat?

    如何将host的bgr planar cv::Mat变成host的BGR packed cv::Mat?
    发表于 09-19 07:33

    基于算能CV1800B芯片的Milk-V Duo开发板

    Milk-V Duo是一款基于算能 CV1800B芯片的MPU,可在其运行LINUX操作系统。
    的头像 发表于 07-01 15:59 4802次阅读
    基于算能<b class='flag-5'>CV</b>1800B<b class='flag-5'>芯片</b>的Milk-V Duo开发板

    基于Transformer的大型语言模型(LLM)的内部机制

    工作原理变得越来越重要。更好地理解这些模型是如何做出决策的,这对改进模型和减轻其故障(如幻觉或推理错误)至关重要。 众所周知,最近 LLM 成功的一个重要因素是它们能够从上下文中学习和推理。LLM 对这些上下文的学习能力通常归功
    的头像 发表于 06-25 15:08 1037次阅读
    基于Transformer的大型语言模型(<b class='flag-5'>LLM</b>)的内部机制

    基准数据集(CORR2CAUSE)如何测试大语言模型(LLM)的纯因果推理能力

    )的纯因果推理能力。其中CORR2CAUSE对LLM来说是一项具有挑战性的任务,有助于指导未来关于提高LLM纯粹推理能力和可推广性的研究。 简介 因果推理 因果推理是推理的一个基本方面
    的头像 发表于 06-20 15:39 1309次阅读
    基准数据集(CORR2CAUSE)如何测试大语言模型(<b class='flag-5'>LLM</b>)的纯因果推理<b class='flag-5'>能力</b>

    中国研究人员提出StructGPT,提高LLM对结构化数据的零样本推理能力

    尽管结构化数据的体量往往非常巨大,但不可能容纳输入提示中的所有数据记录(例如,ChatGPT 的最大上下文长度为 4096)。将结构化数据线性化为 LLM 可以轻松掌握的语句是解决此问题的简单方法。工具操作技术激励他们增强 LLM 解决上述困难的
    的头像 发表于 05-24 16:02 2363次阅读
    中国研究人员提出StructGPT,提高<b class='flag-5'>LLM</b>对结构化数据的零样本推理<b class='flag-5'>能力</b>

    如何利用LLM做多模态任务?

    大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据。虽然已经发布的GPT4具备图片理解能力,但目前还未开放多模态输入接口
    的头像 发表于 05-22 15:57 517次阅读
    如何利用<b class='flag-5'>LLM</b>做多模态任务?

    邱锡鹏团队提出具有内生跨模态能力的SpeechGPT,为多模态LLM指明方向

    大型语言模型(LLM)在各种自然语言处理任务上表现出惊人的能力。与此同时,多模态大型语言模型,如 GPT-4、PALM-E 和 LLaVA,已经探索了 LLM 理解多模态信息的能力。然
    的头像 发表于 05-22 14:38 447次阅读
    邱锡鹏团队提出具有内生跨模态<b class='flag-5'>能力</b>的SpeechGPT,为多模态<b class='flag-5'>LLM</b>指明方向

    如何利用LLM做多模态任务?

    大型语言模型LLM(Large Language Model)具有很强的通用知识理解以及较强的逻辑推理能力,但其只能处理文本数据。虽然已经发布的GPT4具备图片理解能力,但目前还未开放多模态输入接口并且不会透露任何模型上技术细节
    的头像 发表于 05-11 17:09 678次阅读
    如何利用<b class='flag-5'>LLM</b>做多模态任务?

    如何在ESP8266运行的网页?

    为了展示如何将 ESP8266 用作小型网络服务器,我构建了一个公共网站并在其上托管。 通过构建反向代理、利用 Cloudflare 屏蔽 IP 地址并避免 DDoS 攻击,我能够做到这一点。我正在
    发表于 05-11 06:36