0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英特尔在Hot Chips大会上发布了首款AI处理器

DPVg_AI_era 来源:lq 2019-09-01 07:45 次阅读

英特尔在Hot Chips大会上发布了首款AI处理器,专为大型计算中心设计。该芯片基于10纳米Ice Lake处理器,专为大型数据中心设计,可以用最少的能耗来处理高工作负载。本文带来这款芯片的详细设计细节。

近日在Hot Chips 2019大会上,英特尔发布了首款AI处理器,专为大型计算中心设计。

英特尔表示,该芯片由位于以色列海法的研发中心开发,名为Nervana NNP-I或Springhill,基于10纳米Ice Lake处理器,可以用最少的能耗来处理高工作负载。

英特尔表示,随着AI领域对复杂计算的需求日益增加,这款新的硬件芯片将有助于大型企业使用英特尔Xeon处理器。

在Hot Chips大会上,他们提供了这款AI芯片的更多设计细节。

英特尔首款AI芯片设计细节

英特尔正采取数项不同的举措,通过其“无处不在的AI”('AI everywhere)战略,扩大其在蓬勃发展的AI市场的影响力。该公司广泛的产品包括GPUFPGA和定制ASIC,用于应对AI领域的不同挑战,其中一些解决方案专为计算密集型的训练任务而设计,用于为目标识别、语音翻译、语音合成等工作负载创建复杂的神经网络,将产生的训练模型作为轻量级代码运行的单独解决方案称为推理。

英特尔的Spring Hill Nervana神经网络推理处理器(NNP-I) 1000,我们在下文中简称为NNP-I,用于处理数据中心的轻量级推理工作负载。这款芯片足够小,可以安装在标准的M.2设备上,然后插入主板上的标准M.2端口,从而将Xeon服务器从推理密集型工作负载中解放出来,将更大的芯片释放出来用于一般计算任务。用于训练的神经网络处理器 (NPP-T)作为英特尔的Nervana解决方案用于训练工作负载,但这两种设备的底层架构有很大的不同。

英特尔修改了10nm Ice Lake处理器,去掉了两个计算核心和图形引擎,以适应12个推理计算引擎(ICE)。ICE加速器具有基于硬件的单元间同步,与两个IA核共享一个连贯的结构和24MB的L3缓存,这两个IA核具有Sunny Cove微架构。

IA核心是标准的Ice Lake核心,支持AVX-512和VNNI指令,可加速卷积神经网络,而一个完全集成的电压调节模块(FIVR)动态地向组件供电,将更多的功率预算分配给最活跃的on-die单元。该芯片配备了两个LPDDR4X内存控制器,连接到封装内存,你可以将其视为M.2 PCB左下方的单个组件。控制器提供高达4.2 GT/s (68 GB/s)的吞吐量,并支持 in-band ECC。

英特尔尚未透露LPDDR4的容量,也没有透露有关M.2设备的其他细节。我们知道英特尔将这个软件包安装在不同形式的插入卡上,比如上面的M.2版本,它可以插入服务器主板上的标准M.2端口,或者插入标准的PCIe插槽的更大的附加卡。与谷歌的TPU等为人AI设计的定制芯片不同,这款设备基本上与所有现有的现代服务器硬件兼容。这种方法也是可扩展的:你可以根据需要向服务器添加尽可能多的NNP-I,特别是对于包含多个M.2端口的PCIe提升板。

该设备通过PCIe 3.0 x4或x8接口与主机通信,但不使用NVMe协议。相反,它作为一个标准的PCIe设备运行。英特尔将提供一种软件,可以将推理“作业”完全编排到加速器上,当工作完成时,该软件将通知Xeon CPU。卸载消除了Xeon与其他类型的加速器在PCIe总线上的来回通信,这对CPU来说是一种负担,因为它会生成中断并需要数据移动。相反,NNP-I是一个独立的系统,具有自己的I/O调节(PCH),允许它访问处理所需的数据。

该设备可以支持从10W到50W的不同功率范围,这对性能有影响。M.2接口的15W限制阻碍了插入标准M.2插座的设备的功率传输,但NNP-I在更大的外接卡中可以在最高TDP额定值下运行,这意味着它们提供了更好的性能。在INT8操作中,TOP/s的范围从48到92。根据配置的TDP,芯片的效率为每瓦特2~4.8 TOP/s,但该指标不包括总包功率。

推理计算引擎内部

深入研究ICE引擎可以发现,每个ICE单元都有额外的4MB SRAM,有助于减少芯内数据移动,这在功耗和时间方面总是比实际的计算操作更昂贵。深度学习计算网格(DL Compute Grid)是一个张量引擎,通过数据和控制结构连接到SRAM和VP6 DSP。DSP引擎可以用于没有专门针对固定功能DL计算网格进行优化的算法。此外,其他代码可以在Ice Lake核心上使用VNNI运行,使多个模型可以同时在设备上运行,也为快速移动的AI空间提供了一些必需的前向兼容性。

DL Compute Grid支持FP16和INT8,但也支持INT4、2和1,以支持未来可能对AI算法进行的调整。令人惊讶的是,它不支持bfloat16。通过调整工作负载在ICE单元之间的分布方式,可以优化fabric的带宽或延迟,如下表所示。

这里我们可以看到DL Compute Grid的特写视图,它被设计得很灵活,以最大化其4D并行计算能力,以及用于矢量处理的Tensilicon Vision P6 DSP。Tensilica DSP引擎是一个广泛的VLIW机器,支持INT8, 16, 32,和FP16。该引擎是完全可编程的,并具有一个双向管道和DL Compute Grid,可在两个硬件同步单元之间快速传输数据。。

芯片的内存子系统

回到内存子系统,可以看到每个计算单元中所做的设计决策背后的许多合理化。这里我们可以看到硬件控制的L3缓存被分成8个3MB的片段,在AI核心和ICE单元之间共享。该设计经过优化,使数据尽可能接近计算引擎,并具有四个不同的层。

图表左侧的一系列blocks量化了通过内存结构的每一层移动数据的延迟。从DRAM到DLCompute Grid的数据传输被设置为基线,我们可以看到分层结构中的每一层将数据传输的engine的速度是多么快。从L3缓存访问比DRAM快10倍,而存储在DL Compute Grid中的数据比DRAM快1000倍。

总之,分层设计允许Xeon向设备卸载几种不同类型的神经网络,每一层都支持一定的精度。请注意,上面的金字塔是根据每瓦特的性能排列的。

英特尔与ResNet50共享性能数据,运行速度为每秒3600 次推理,芯片设置为10W TDP。这相当于每瓦特4.8 TOP/s的效率测量,符合公司的设计目标。值得注意的是,芯片在较低的TDP范围内效率更高,因此在较高的性能设置下效率可能会有所不同。这些数字也只适用于ASIC,不包括整个M.2设备的功耗。英特尔表示,未来将分享更多的性能数据。

英特尔提供了一个编译器,可以为NNP-I的加速器定制代码,并正在与Facebook合作,以确保Glo编译器也支持NNP-I的加速器。Facebook是英特尔在开发期间的“定义”合作伙伴。该设备还支持所有标准框架,如PyTorch和TensorFlow等,几乎没有任何更改。英特尔坚持认为,任何能够使用Xeons进行推理的人都可以使用NNP-I。

在数据中心,推理应用远比训练普遍,价格合理的低功耗设备将集体销售给超大规模和云服务提供商(CSP),意思是这可以成为英特尔的一个利润丰厚的细分市场。该公司本身并没有打算将这些设备推向零售市场,但确实希望CSP在未来通过基于云的实例来公开它们。

英特尔已经研发了两代NNP-I。该公司将在今年年底前开始批量生产,NNP-I已经开始提供样品。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    447

    文章

    47788

    浏览量

    409098
  • 英特尔
    +关注

    关注

    60

    文章

    9421

    浏览量

    168806
  • AI处理器
    +关注

    关注

    0

    文章

    82

    浏览量

    9376

原文标题:英特尔首款AI芯片终于面世!10nm工艺,以色列团队设计细节曝光

文章出处:【微信号:AI_era,微信公众号:新智元】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    成都汇阳关于成英特尔推出多款新品,24 年或成为 AI PC 出货元年

    英特尔发布酷睿 14 代系列新品,台式+移动场景全覆盖】 在 CES 2024 大会上英特尔推出了酷睿第 14 代台式和移动端处理器系列
    的头像 发表于 01-18 10:10 303次阅读

    英特尔酷睿14代处理器系列发布,Arrowlake/LunarLake24年问世

    处理器英特尔
    looger123
    发布于 :2024年01月10日 17:44:38

    英特尔专家为您揭秘第五代英特尔® 至强® 可扩展处理器如何为AI加速

    近日,英特尔发布了第五代至强 可扩展处理器,尤其是其“为 AI 加速”的口号引起了广泛关注。 在 AI 快速发展的今天,第五代
    的头像 发表于 12-23 12:20 448次阅读

    AI 无处不在,英特尔酷睿Ultra 和第五代英特尔至强可扩展处理器正式发布

    英特尔  酷睿 Ultra处理器和第五代英特尔   至强   可扩展处理器支持的AI产品亮相,展现了英特
    的头像 发表于 12-16 16:05 389次阅读
    <b class='flag-5'>AI</b> 无处不在,<b class='flag-5'>英特尔</b>酷睿Ultra 和第五代<b class='flag-5'>英特尔</b>至强可扩展<b class='flag-5'>处理器</b>正式<b class='flag-5'>发布</b>

    英特尔发布酷睿Ultra和第五代至强可扩展处理器

    战略的发布,以及英特尔 酷睿 Ultra处理器和第五代英特尔 至强 可扩展处理器支持的 AI
    的头像 发表于 12-16 15:23 767次阅读

    英特尔处理器,掀AI PC战火

    随着ai时代的到来,英特尔正在构想新的酷睿Ultra处理器(代号Meteor Lake),这是英特尔的第一个基于npu的处理器,旨在在pc上
    的头像 发表于 12-11 11:26 522次阅读

    英特尔研究院将在NeurIPS大会上展示业界领先的AI研究成果

    英特尔研究院将在NeurIPS 2023大会上展示一系列富有价值、业界领先的AI创新成果。面向广大开发者、研究人员和学界人士,这一AI和计算机视觉领域的全球顶会将于12月10日至16日
    的头像 发表于 12-08 19:15 350次阅读

    英特尔研究院将在NeurIPS大会上展示业界领先的AI研究成果

    英特尔研究院将重点展示31项研究成果,它们将推进面向未来的AI创新。        英特尔研究院将在NeurIPS 2023大会上展示一系列富有价值、业界领先的
    的头像 发表于 12-08 09:17 401次阅读

    #高通 #英特尔 #Elite 高通X Elite芯片或终结苹果、英特尔的芯片王朝

    高通英特尔苹果
    深圳市浮思特科技有限公司
    发布于 :2023年10月27日 16:46:07

    英特尔发布面向发烧友的英特尔酷睿第14代台式机处理器

    近日,英特尔发布了以i9-14900K为代表的全新英特尔 酷睿第14代台式机处理器产品家族,涵盖了此次推出的六款全新未锁频台式机处理器,拥有
    的头像 发表于 10-21 16:40 481次阅读

    SiFive P870 RISC-V 处理器亮相 Hot Chips 2023

    SiFive在过去几年中一直是RISC-V的主要参与者。在 Hot Chips 2023 上,该公司详细介绍了 SiFive P870 处理器。 由于这些都是在礼堂现场完成的,请原谅错别字。H
    的头像 发表于 10-07 14:41 9335次阅读
    SiFive P870 RISC-V <b class='flag-5'>处理器</b>亮相 <b class='flag-5'>Hot</b> <b class='flag-5'>Chips</b> 2023

    英特尔发布首款基于Intel4的处理器——Meteor Lake

    美国半导体巨头英特尔在9月19日举办的年度创新峰会上发布了最新的PC处理器Meteor Lake,这是英特尔首款采用Intel 4制程工艺打
    的头像 发表于 09-20 16:54 1248次阅读

    Intel RISC指令集处理器解析

    Hot Chips 2023大会上,Intel首次公布了一款RISC指令集处理器,拥有独特的8核心528线程规格。
    发表于 09-01 15:02 409次阅读
    Intel RISC指令集<b class='flag-5'>处理器</b>解析

    NVIDIA 首席科学家 Bill Dally 将在 Hot Chips 大会发表主题演讲

    Research 负责人。他将在 Hot Chips 大会上发表主题演讲,介绍加速计算和 AI 背后的驱动力。Hot
    的头像 发表于 08-22 19:20 391次阅读

    英特尔媒体加速参考软件Linux版用户指南

    英特尔媒体加速参考软件是用于数字标志、交互式白板(IWBs)和亭位使用模型的参考媒体播放应用软件,它利用固定功能硬件加速来提高媒体流速、改进工作量平衡和资源利用,以及定制的图形处理
    发表于 08-04 06:34