0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

7nm制程,比GPU效率高,Meta发布第一代AI推理加速器

AI智胜未来 来源:机器之心 2023-05-26 15:41 次阅读

近日,Meta 透露了其在人工智能方面取得的最新进展。

人们提起 Meta 时,通常会想到其应用程序,包括 Facebook、Instagram、WhatsApp 或即将推出的元宇宙。但许多人不知道的是这家公司设计和构建了非常复杂的数据中心来运营这些服务。

与 AWS、GCP 或 Azure 等云服务提供商不同,Meta 不需要披露有关其硅芯选择、基础设施或数据中心设计的细节,除了其 OCP 设计用来给买家留下深刻印象。Meta 的用户希望获得更好、更一致的体验,而不关心它是如何实现的。

在 Meta,AI 工作负载无处不在,它们构成了广泛用例的基础,包括内容理解、信息流、生成式 AI 和广告排名。这些工作负载在 PyTorch 上运行,具有一流的 Python 集成、即时模式(eager-mode)开发和 API 简洁性。特别是深度学习推荐模型(DLRMs),对于改善 Meta 的服务和应用体验非常重要。但随着这些模型的大小和复杂性的增加,底层的硬件系统需要在保持高效的同时提供指数级增长的内存和计算能力。

Meta 发现,对于目前规模的 AI 运算和特定的工作负载,GPU 的效率不高,并不是最佳选择。因此,该公司提出了推理加速器 MTIA,帮助更快地训练 AI 系统。

MTIA V1

4ca17d8c-fb2c-11ed-90ce-dac502259ad0.png

MTIA v1(推理)芯片(die)

2020 年,Meta 为其内部工作负载设计了第一代 MTIA ASIC 推理加速器。该推理加速器是其全栈解决方案的一部分,整个解决方案包括芯片、PyTorch 和推荐模型。

MTIA 加速器采用 TSMC 7nm 工艺制造,运行频率为 800 MHz,在 INT8 精度下提供 102.4 TOPS,在 FP16 精度下提供 51.2 TFLOPS。它的热设计功耗 (TDP) 为 25 W。

MTIA 加速器由处理元件 (PE)、片上和片外存储器资源以及互连组成。该加速器配备了运行系统固件的专用控制子系统。固件管理可用的计算和内存资源,通过专用主机接口与主机通信,协调加速器上的 job 执行。

内存子系统使用 LPDDR5 作为片外 DRAM 资源,可扩展至 128 GB。该芯片还有 128 MB 的片上 SRAM,由所有 PE 共享,为频繁访问的数据和指令提供更高的带宽和更低的延迟。

MTIA 加速器网格包含以 8x8 配置组织的 64 个 PE,这些 PE 相互连接,并通过网状网络连接到内存块。整个网格可以作为一个整体来运行一个 job,也可以分成多个可以运行独立 job 的子网格。

每个 PE 配备两个处理器内核(其中一个配备矢量扩展)和一些固定功能单元,这些单元经过优化以执行关键操作,例如矩阵乘法、累加、数据移动和非线性函数计算。处理器内核基于 RISC-V 开放指令集架构 (ISA),并经过大量定制以执行必要的计算和控制任务。

每个 PE 还具有 128 KB 的本地 SRAM 内存,用于快速存储和操作数据。该架构最大限度地提高了并行性和数据重用性,这是高效运行工作负载的基础。

该芯片同时提供线程和数据级并行性(TLP 和 DLP),利用指令级并行性 (ILP),并通过允许同时处理大量内存请求来实现大量的内存级并行性 (MLP)。

4d2fdce4-fb2c-11ed-90ce-dac502259ad0.png

MTIA v1 系统设计

MTIA 加速器安装在小型双 M.2 板上,可以更轻松地集成到服务器中。这些板使用 PCIe Gen4 x8 链接连接到服务器上的主机 CPU,功耗低至 35 W。

4d5ef182-fb2c-11ed-90ce-dac502259ad0.png

带有 MTIA 的样品测试板

托管这些加速器的服务器使用来自开放计算项目的 Yosemite V3 服务器规范。每台服务器包含 12 个加速器,这些加速器连接到主机 CPU,并使用 PCIe 交换机层级相互连接。因此,不同加速器之间的通信不需要涉及主机 CPU。此拓扑允许将工作负载分布在多个加速器上并并行运行。加速器的数量和服务器配置参数经过精心选择,以最适合执行当前和未来的工作负载。

MTIA 软件栈

MTIA 软件(SW)栈旨在提供给开发者更好的开发效率和高性能体验。它与 PyTorch 完全集成,给用户提供了一种熟悉的开发体验。使用基于 MTIA 的 PyTorch 与使用 CPU 或 GPU 的 PyTorch 一样简单。并且,得益于蓬勃发展的 PyTorch 开发者生态系统和工具,现在 MTIA SW 栈可以使用 PyTorch FX IR 执行模型级转换和优化,并使用 LLVM IR 进行低级优化,同时还支持 MTIA 加速器自定义架构和 ISA。

下图为 MTIA 软件栈框架图:

4e236b98-fb2c-11ed-90ce-dac502259ad0.png

作为 SW 栈的一部分,Meta 还为性能关键型 ML 内核开发了一个手动调整和高度优化的内核库,例如完全连接和嵌入包运算符。在 SW 栈的更高层级可以选择在编译和代码生成过程中实例化和使用这些高度优化的内核。

此外,MTIA SW 栈随着与 PyTorch 2.0 的集成而不断发展,PyTorch 2.0 更快、更 Python 化,但一如既往地动态。这将启用新功能,例如 TorchDynamo 和 TorchInductor。Meta 还在扩展 Triton DSL 以支持 MTIA 加速器,并使用 MLIR 进行内部表示和高级优化。

MTIA 性能

Meta 比较了 MTIA 与其他加速器的性能,结果如下:

4e597684-fb2c-11ed-90ce-dac502259ad0.png

Meta 使用五种不同的 DLRMs(复杂度从低到高)来评估 MTIA

此外,Meta 还将 MTIA 与 NNPI 以及 GPU 进行了比较,结果如下:

4e63c922-fb2c-11ed-90ce-dac502259ad0.png

评估发现,与 NNPI 和 GPU 相比,MTIA 能够更高效地处理低复杂度(LC1 和 LC2)和中等复杂度(MC1 和 MC2)的模型。此外,Meta 尚未针对高复杂度(HC)模型进行 MTIA 的优化。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 加速器
    +关注

    关注

    2

    文章

    748

    浏览量

    36602
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4426

    浏览量

    126741
  • pytorch
    +关注

    关注

    2

    文章

    764

    浏览量

    12837

原文标题:7nm制程,比GPU效率高,Meta发布第一代AI推理加速器

文章出处:【微信号:AI智胜未来,微信公众号:AI智胜未来】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    2024年全球与中国7nm智能座舱芯片行业总体规模、主要企业国内外市场占有率及排名

    类型及应用 2.9 7nm智能座舱芯片行业集中度、竞争程度分析 2.9.1 7nm智能座舱芯片行业集中度分析:2023年全球Top 5生产商市场份额 2.9.2 全球7nm智能座舱芯片第一
    发表于 03-16 14:52

    瑞萨发布下一代动态可重构人工智能处理器加速器

    瑞萨最新发布的动态可重构人工智能处理器(DRP-AI加速器,在业界引起了广泛关注。这款加速器拥有卓越的10 TOPS/W高功率效率,相比传
    的头像 发表于 03-08 13:45 258次阅读

    台积电7nm制程降幅约为5%至10%

    据供应链消息透露,台积电计划真正降低其7nm制程的价格,降幅约为5%至10%。这一举措的主要目的是缓解7nm制程产能利用率下滑的压力。
    的头像 发表于 12-01 16:46 546次阅读

    有源pfc效率高还是无源效pfc效率高

    有源pfc效率高还是无源效pfc效率高
    发表于 10-07 09:01

    AI加速器架构设计与实现》+第2章的阅读概括

    首先感谢电子发烧友论坛提供的书籍和阅读评测的机会。 拿到书,先看下封面介绍。这本书的中文名是《AI加速器架构设计与实现》,英文名是Accelerator Based on CNN Design
    发表于 09-17 16:39

    AI加速器架构设计与实现》+学习和些思考

    AI加速器设计的学习和些思考 致谢 首先感谢电子发烧友论坛提供的书籍 然后为该书打个广告吧,32K的幅面,非常小巧方便,全彩印刷,质量精良,很有质感。 前言 设计神经网络首先要考虑的几个问题
    发表于 09-16 11:11

    AI加速器架构设计与实现》+第一章卷积神经网络观后感

    AI加速器架构设计与实现》+第一章卷积神经网络观感    在本书的引言中也提到“图胜千言”,读完第一章节后,对其进行了
    发表于 09-11 20:34

    鸿创达基于瑞芯微RK3588的8K人工智能核心板

    RK3588是Rockchip全新一代旗舰AIoT芯片,采用了8nm LP制程;搭载八核64位CPU,主频高达2.4GHz;集成ARM Mali-G610 MP4四核GPU,内置
    发表于 09-11 20:25

    Gaudi2夹层卡HL-225B数据表

    迪第二Al深度学习夹层卡HL-225B专为数据中心的大规模扩展而设计。训练处理基于第一代迪的高效架构,目前采用
    发表于 08-04 07:54

    Ai 部署的临界考虑电子指南

    虽然GPU解决方案对训练,AI部署需要更多。 预计到2020年中期,人工智能行业将增长到200亿美元,其中大部分增长是人工智能推理。英特尔Xeon可扩展处理
    发表于 08-04 07:25

    Intel媒体加速器参考软件用户指南

    英特尔媒体加速器参考软件是用于数字标志、交互式白板(IWBs)和亭位使用模型的参考媒体播放应用软件,它利用固定功能硬件加速来提高媒体流速、改进工作量平衡和资源利用,以及定制的图形处理股(GP
    发表于 08-04 07:07

    Gaudi2架构和软件的全面解释

    和开发者网站上提供参考模型、工具和指南。 我们第一代迪的当前客户看到的主要优势是相对于流行视觉和语言模型的GPU解决方案的性价比优势。这些使客户能够进行更多的培训,降低成本,从而加快他们的模型培训
    发表于 08-04 06:15

    【书籍评测活动NO.18】 AI加速器架构设计与实现

    加速器架构设计与实现》 主要内容本书是本讲解NPU硬件架构设计与技术实现的著作。作者将自己在CPU、GPU和NPU领域15年的软硬件工作经验融会贯通,将四NPU架构设计经验融为
    发表于 07-28 10:50

    英特尔面向中国市场发布Gaudi2处理器,加速大模型训练和推理

    推出的Gaudi2 AI加速器,将通过其合作伙伴浪潮提供给中国客户。   Gaudi2在训练和推理上的出色表现   英特尔此次推出的Gaudi2深度学习加速器暨Gaudi2夹层卡HL-
    的头像 发表于 07-17 00:01 1286次阅读
    英特尔面向中国市场<b class='flag-5'>发布</b>Gaudi2处理器,<b class='flag-5'>加速</b>大模型训练和<b class='flag-5'>推理</b>

    又一大厂发力RISC-V,Meta第一代自研AI加速器MTIA

    不久之前,Meta公开了他们在自研芯片上的进展,包括其第一代AI加速器MTIA,以及用于视频转码的MSVP。作为有些“下坡路”倾向的互联网大厂,Me
    的头像 发表于 05-23 01:49 1746次阅读
    又一大厂发力RISC-V,<b class='flag-5'>Meta</b><b class='flag-5'>第一代</b>自研<b class='flag-5'>AI</b><b class='flag-5'>加速器</b>MTIA