0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用FPGA实现FP16格式点积级联运算

Wildesbeast 来源:21IC 作者:杨宇 2020-08-15 11:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

通过使用Achronix Speedster7t FPGA中的机器学习加速器MLP72,开发人员可以轻松选择浮点/定点格式和多种位宽,或快速应用块浮点,并通过内部级联可以达到理想性能。

神经网络架构中的核心之一就是卷积层,卷积的最基本操作就是点积。向量乘法的结果是向量的每个元素的总和相乘在一起,通常称之为点积。此向量乘法如下所示:

图1 点积操作

该总和S由每个矢量元素的总和相乘而成,因此S=a1b1+a2b2+a3b3+…

本文讲述的是使用FP16格式的点积运算实例,展示了MLP72支持的数字类型和乘数的范围。

此设计实现了同时处理8对FP16输入的点积。该设计包含四个MLP72,使用MLP内部的级联路径连接。每个MLP72将两个并行乘法的结果相加(即aibi+ai+1bi+1),每个乘法都是i_a输入乘以i_b输入(均为FP16格式)的结果。来自每个MLP72的总和沿着MLP72的列级联到上面的下一个MLP72块。在最后一个MLP72中,在每个周期上,计算八个并行FP16乘法的总和。

最终结果是多个输入周期内的累加总和,其中累加由i_first和i_last输入控制。 i_first输入信号指示累加和归零的第一组输入。 i_last信号指示要累加和加到累加的最后一组输入。最终的i_last值可在之后的六个周期使用,并使用i_last o_valid进行限定。两次运算之间可以无空拍。

那么,以上运算功能如何对应到MLP内部呢?其后的细节已分为MLP72中的多个功能阶段进行说明。

● 进位链

首先请看下图,MLP之间的进位链结构,这是MLP内部的专用走线,可以保证级联的高效执行。

图3 MLP进位链

● 乘法阶段

下图是MLP中浮点乘法功能阶段,其中寄存器代表一级可选延迟。

图4 MLP乘法功能阶段框图

MLP72浮点乘法级包括两个24位全浮点乘法器和一个24位全浮点加法器。两个乘法器执行A×B和C×D的并行计算。加法器将两个结果相加得到A×B + C×D。

乘法阶段有两个输出。下半部分输出可以在A×B或(A×B + C×D)之间选择。上半部分输出始终为C×D。

乘法器和加法器使用的数字格式由字节选择参数以及和参数设置的格式确定。

浮点输出具有与整数输出级相同的路径和结构。MLP72可以配置为在特定阶段选择整数或等效浮点输入。输出支持两个24位全浮点加法器,可以对其进行加法或累加配置。 进一步可以加载加法器(开始累加),可以将其设置为减法,并支持可选的舍入模式。

最终输出阶段支持将浮点输出格式化为MLP72支持的三种浮点格式中的任何一种。 此功能使MLP72可以外部支持大小一致的浮点输入和输出(例如fp16或bfloat16),而在内部以fp24执行所有计算。

图5 MLP浮点输出阶段框图

需要强调的是本设计输入和输出都是FP16格式,中间计算过程,即进位链上的fwdo_out和fwdi_dout 都是FP24格式。具体逻辑框图如下所示:

图6 FP16点积逻辑框图

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPGA
    +关注

    关注

    1663

    文章

    22494

    浏览量

    638989
  • 卷积
    +关注

    关注

    0

    文章

    95

    浏览量

    19031
  • 机器学习
    +关注

    关注

    67

    文章

    8561

    浏览量

    137208
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何用 STM32 + FP7208 + FP6195 打造一款真正的音乐律动氛围灯?

    基于FP6195降压与FP7208升压恒流的氛围灯控设计 当前市面上的KTV 氛围灯控方案普遍存在一个痛:所谓的“音乐律动”大多只是简单跟随音量大小做机械闪烁,无法识别音乐的节奏
    发表于 04-08 14:04

    AWQ/GPTQ量化模型加载与显存优化实战

    大语言模型(LLM)推理显存需求呈指数级增长,70B参数的模型需要约140GB显存(FP16),远超单卡GPU容量。量化技术通过降低模型参数精度(从FP16到INT4),在精度损失最小的情况下减少50-75%显存占用,使得大模型在消费级GPU上运行成为可能。
    的头像 发表于 03-13 09:45 566次阅读

    大模型推理服务的弹性部署与GPU调度方案

    7B 模型 FP16 推理需要约 14GB 显存,70B 模型需要 140GB+,KV Cache 随并发数线性增长,显存碎片化导致实际利用率不足 60%。
    的头像 发表于 03-03 09:29 382次阅读

    今日看点:消息称 AMD、高通考虑导入 SOCAMM 内存;曦望发布新一代推理GPU芯片启望S3

    推理深度定制的GPGPU芯片。其单芯片推理性能提升5倍,支持从FP16FP8、FP6、FP4等多精度灵活切换,释放低精度推理效率,这种设计更贴合当前MoE和长上下文模型在推理阶段的需
    发表于 01-28 11:09 1303次阅读

    三电阻可调增益设计:FP130A与FP355的灵活配置实现

    在30V以下的低压应用中,精准的电流监控对实现系统保护至关重要。FP130A与FP355是两款专为此设计的高端电流检测芯片。FP130A可精确监测电流大小与方向,协助MCU智能判断设备
    的头像 发表于 11-03 11:50 1455次阅读
    三电阻可调增益设计:<b class='flag-5'>FP</b>130A与<b class='flag-5'>FP</b>355的灵活配置<b class='flag-5'>实现</b>

    利用C语言union特性来定义RGB565格式

    本次分享的内容是利用C语言union特性来定义RGB565格式 1)前言 在做视觉相关的任务时,相机的输入一般会是RGB565(uint16_t)的格式,而我们需要把它显转换成RGB
    发表于 10-30 08:26

    基于级联分类器的人脸检测基本原理

    。这里需要指出的一是,可能会存在多个检测结果为阳性的窗口,鉴于此类情况,我们会在最后进行一次聚类,把多个阳性窗口合并成为一个。 该算法还具有支持多尺度和任意旋转角度的扩展版本。关于多尺度,算法的实现细节
    发表于 10-30 06:14

    小白必读:到底什么是FP32、FP16、INT8?

    网上关于算力的文章,如果提到某个芯片或某个智算中心的算力,都会写:在FP32精度下,英伟达H100的算力大约为0.9PFlops。在FP16精度下,某智算中心的算力是6.7EFlops。在INT8
    的头像 发表于 10-20 14:34 1644次阅读
    小白必读:到底什么是<b class='flag-5'>FP</b>32、<b class='flag-5'>FP16</b>、INT8?

    基于FP5207的两级升压方案,实现单节电池至48V高压输出

    基于FP5207的两级升压方案充分利用该控制器的高占空比与高集成度优势,通过级联结构突破单级升压的电压限制,为单节电池供电设备提供了一条体积紧凑、成本可控且性能稳定的高压生成途径,非常适合各类便携高压设备及分布
    的头像 发表于 10-13 15:10 2321次阅读
    基于<b class='flag-5'>FP</b>5207的两级升压方案,<b class='flag-5'>实现</b>单节电池至48V高压输出

    西井科技推出Hymala多联运物流枢纽大模型矩阵

    近日,2025WAIC,上海市工商联"人工智能+数字化"转型解决方案和创新产品成果活动上,人工智能智慧物流解决方案商——西井科技重磅推出Hymala多联运物流枢纽大模型矩阵,直
    的头像 发表于 07-29 17:49 1807次阅读

    计算精度对比:FP64、FP32、FP16、TF32、BF16、int8

    本文转自:河北人工智能计算中心在当今快速发展的人工智能领域,算力成为决定模型训练与推理速度的关键因素之一。为了提高计算效率,不同精度的数据类型应运而生,包括FP64、FP32、FP16、TF32
    的头像 发表于 06-26 11:09 3230次阅读
    计算精度对比:<b class='flag-5'>FP</b>64、<b class='flag-5'>FP</b>32、<b class='flag-5'>FP16</b>、TF32、BF<b class='flag-5'>16</b>、int8

    将Whisper大型v3 fp32模型转换为较低精度后,推理时间增加,怎么解决?

    将 openai/whisper-large-v3 FP32 模型转换为 FP16、INT8 和 INT4。 推理所花费的时间比在 FP32 上花费的时间要多
    发表于 06-24 06:23

    SiC MOSFET并联运实现静态均流的基本要求和注意事项

    通过并联SiC MOSFET功率器件,可以获得更高输出电流,满足更大功率系统的要求。本章节主要介绍了SiC MOSFET并联运实现静态均流的基本要求和注意事项。
    的头像 发表于 05-23 10:52 2126次阅读
    SiC MOSFET并<b class='flag-5'>联运</b>行<b class='flag-5'>实现</b>静态均流的基本要求和注意事项

    RGB888格式的image怎么保存jpg格式

    01的K230板子 1.2.2固件 我用RGB565可以顺利保存jpg,但是RGB888就不行,提示如下 提问:RGB888格式的image怎么保存jpg格式 想保存888是因为感觉图像质量更好,后面用这些保存的图片来训练模型 试试这个
    发表于 04-25 08:18

    CRC16-MODBUS+手算+移位运算+C程序+并行运算

    CRC16-MODBUS+手算+移位运算+C程序+并行运算
    发表于 04-22 18:23 0次下载