0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

采用创新的FPGA 器件来实现更经济且更高能效的大模型推理解决方案

互联网资讯 来源:马华1 作者:马华1 2024-06-19 15:53 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

作者:Bob Siller,Achronix半导体产品营销总监

摘要:本文根据完整的基准测试,将Achronix Semiconductor公司推出的Speedster7t FPGAGPU解决方案进行比较,在运行同一个Llama2 70B参数模型时,该项基于FPGA的解决方案实现了超越性的LLM推理处理。

采用 FPGA器件来加速LLM性能,在运行 Llama2 70B参数模型时,Speedster7t FPGA如何与 GPU解决方案相媲美?证据是令人信服的——Achronix Speedster7t FPGA通过提供计算能力、内存带宽和卓越能效的最佳组合,在处理大型语言模型(LLM)方面表现出色,这是当今LLM复杂需求的基本要求。

像 Llama2这样的 LLM的快速发展正在为自然语言处理(NLP)开辟一条新路线,有望提供比以往任何时候都更像人类的交互和理解。这些复杂的 LLM是创新的催化剂,推动了对先进硬件解决方案的需求,以满足其密集处理需求。

我们的基准测试突出了 Speedster7t系列处理 Llama2 70B模型复杂性的能力,重点关注 FPGA和 LLM性能。这些测试(可根据要求提供结果)显示了Achronix FPGA对于希望将LLM的强大功能用于其NLP应用程序的开发人员和企业的潜力。这些基准测试展示了 Speedster7t FPGA如何超越市场,提供无与伦比的性能,同时降低运营成本和环境影响。

Llama2 70B LLM运行在 Speedster7t FPGA上

2023年 7月,Microsoft和 Meta推出了他们的开源 LLM,Llama2开创了 AI驱动语言处理的新先例。Llama2采用多种配置设计,以满足各种计算需求,包括 700亿、130亿和 700亿个参数,使其处于 LLM创新的最前沿。Achronix和我们的合作伙伴 Myrtle.ai对700亿参数的Llama2模型进行了深入的基准分析,展示了使用Speedster7t FPGA进行LLM加速的优势。

基准测试结果:Speedster7t FPGA与业界领先的 GPU对比

我们在 Speedster7t FPGA上测试了 Llama2 70B模型的推理性能,并将其与领先的 GPU进行了比较。该基准测试是通过对输入、输出序列长度(1,128)和批处理大小 =1进行建模来完成的。结果表明,Speedster7t AC7t1500在LLM处理中的有效性。

FPGA成本基于由 Speedster7t FPGA提供支持的 VectorPath加速卡的标价。同样,我们在此分析中使用了可比GPU卡的标价。使用这些成本信息和每秒产生的输出令牌数量,我们计算出基于 FPGA的解决方案的 $/token提高了 200%。除了成本优势外,在比较 FPGA和 GPU卡的相对功耗时,我们观察到与基于 GPU的解决方案相比,产生的 kWh/token提高了 200%。这些优势表明 FPGA如何成为一种经济且能效高效的 LLM解决方案。

wKgZomZyje-AcBKyAAGXKpdnlrw187.png

面向 LLM的 FPGA:Speedster7t的优势

Achronix Speedster7t系列FPGA旨在优化LLM操作,平衡LLM硬件的关键要求,包括:

高性能计算 –具有高性能计算能力的尖端硬件对于管理 LLM推理核心的复杂矩阵计算至关重要。

高带宽内存 –高效的 LLM推理依赖于高带宽内存,通过模型的网络参数快速馈送数据,而不会出现瓶颈。

扩展和适应能力 –现代 LLM推理需要能够随着模型规模的增长而扩展并灵活适应 LLM架构的持续进步的硬件。

高能效处理 –可持续的 LLM推理需要硬件能够最大限度地提高计算输出,同时最大限度地降低能耗,从而降低运营成本和环境影响。

Speedster7t FPGA提供以下功能,以应对实施现代 LLM处理解决方案的挑战:

计算性能–通过其灵活的机器学习处理器(MLP)模块支持复杂的 LLM任务。

高 GDDR6 DRAM带宽 –确保以 4 Tbps的内存带宽快速处理大型 LLM数据集。

大量的 GDDR6 DRAM容量 –可容纳 Llama2等扩展的 LLM,每个 FPGA的容量为 32 GB。

用于 LLM的集成 SRAM –提供低延迟、高带宽的存储,具有 190 Mb的 SRAM,非常适合存储激活和模型权重。

多种本机数字格式 –适应 LLM需求,支持块浮点(BFP)、FP16、bfloat16等。

高效的片上数据传输 – 2D NoC超过 20 Tbps,简化片上数据流量。

扩展横向扩展带宽 –支持多达32个112 Gbps SerDes满足 LLM需求,增强连接性。

自适应逻辑级可编程 –使用 690K 6输入 LUT为 LLM的快速发展做好准备。

针对 LLM推理优化的 FPGA

在快速变化的人工智能和自然语言处理领域,使用 FPGA而不是 GPU来加速 LLM是一个相当新的想法。该基准测试展示了设计人员如何从使用Achronix的FPGA技术中受益。Achronix Speedster7t系列FPGA是这一变化的关键技术,在高性能、高带宽存储器、易于扩展和电源效率之间实现了出色的平衡。

基于详细的基准分析,将 Speedster7t FPGA与领先的 GPU在处理 Llama2 70B模型方面的能力进行比较,结果表明 Speedster7t FPGA能够提供高水平的性能,同时大大降低运营成本和环境影响,突出了它在未来 LLM创建和使用中的重要作用。

如果希望进一步了解如何使用FPGA器件来加速您的LLM程序,以及 FPGA加速 LLM解决方案的未来发展机遇。请联系Achronix,获取详细的基准测试结果,并帮助您确定Achronix FPGA技术如何加速您的LLM设计。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • FPG
    FPG
    +关注

    关注

    1

    文章

    54

    浏览量

    80493
  • 大模型
    +关注

    关注

    2

    文章

    3440

    浏览量

    4964
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    双碳目标下中央空调系统能理解决方案研究与应用

    摘要 随着中国“2030年碳达峰、2060年碳中和”战略目标的提出,建筑能源系统尤其是中央空调系统的节能降耗成为实现双碳目标的关键环节。本文基于某高科技企业的中央空调能理解决方案,结合多项国家
    的头像 发表于 11-20 16:55 326次阅读
    双碳目标下中央空调系统能<b class='flag-5'>效</b>管<b class='flag-5'>理解决方案</b>研究与应用

    请问如何在RK3588上使用npu,用onnx模型推理

    请问如何在瑞芯微 RK3588上使用npu,用onnx模型推理。官网上介绍说要把ONNX模型转换成RKNN模型。但是我并不想这么干,请问有
    发表于 08-09 00:51

    模型推理显存和计算量估计方法研究

    随着人工智能技术的飞速发展,深度学习大模型在各个领域得到了广泛应用。然而,大模型推理过程对显存和计算资源的需求较高,给实际应用带来了挑战。为了解决这一问题,本文将探讨大模型
    发表于 07-03 19:43

    优化电机控制以提高能

    得益于更轻量化高效材料的应用,以及热绝缘和电绝缘技术的进步。更轻巧的电机对汽车应用尤为有利——既可通过减重提升能,又能将电机集成到更紧凑的空间。这些技术进步的影响深远,造就了能更高、性能更优
    发表于 06-11 09:57

    FPGA+AI王炸组合如何重塑未来世界:看看DeepSeek东方神秘力量如何预测......

    和并行计算能力,将AI模型(如CNN、LSTM、Transformer等)部署到FPGA上,实现高效的数据预处理、实时推理和后处理。• 定制化解决方
    发表于 03-03 11:21

    安科瑞基站能耗监控解决方案,全面监控、分析和优化基站能

    解决的问题。安科瑞基站能理解决方案应运而生,通过智能化技术实现对基站能源的全面监控、分析和优化,助力通信行业实现绿色低碳发展 审核编辑 黄宇
    的头像 发表于 02-28 09:58 543次阅读
    安科瑞基站能耗监控<b class='flag-5'>解决方案</b>,全面监控、分析和优化基站能<b class='flag-5'>效</b>

    当我问DeepSeek AI爆发时代的FPGA是否重要?答案是......

    提供了更高的能比,这对于构建高效和可持续的AI解决方案至关重要。 • 适应不断发展的AI算法:AI领域的技术发展迅速,算法不断更新。FPGA的可编程性使其能够快速适应新的算法需求,而
    发表于 02-19 13:55

    中央空调系统能理解决方案

    中央空调系统能理解决方案
    的头像 发表于 02-14 08:03 610次阅读
    中央空调系统能<b class='flag-5'>效</b>管<b class='flag-5'>理解决方案</b>

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    :DeepSeek-R1 更适合电子工程核心工作流,因其在符号数学、代码严谨性、长文档结构化理解上的优势。 二、其他领域专用模型推荐 若需更高精度,可结合以下工具组成混合方案: 1.
    发表于 02-14 02:08

    摩尔线程宣布成功部署DeepSeek蒸馏模型推理服务

    。 据悉,DeepSeek开源模型在多语言理解与复杂推理任务中一直表现出卓越的性能,其V3、R1等系列模型更是备受业界关注。而此次摩尔线程所实现
    的头像 发表于 02-06 13:49 1184次阅读

    中国电信发布复杂推理模型TeleAI-t1-preview

    方面实现了显著提升。 TeleAI-t1-preview采用了先进的强化学习训练方法,并引入了探索、反思等思考范式,从而在数学推导、逻辑推理等复杂问题上展现了更高的准确性。这一
    的头像 发表于 02-05 13:57 886次阅读

    广和通发布AI玩具大模型解决方案

    近日,广和通推出了一项专为AI玩具设计的创新解决方案——AI玩具大模型解决方案。该方案深度融合了豆包等领先的AI大模型技术,并内置了广和通先
    的头像 发表于 01-21 14:45 1574次阅读

    广和通推出AI玩具大模型解决方案

    广和通推出AI玩具大模型解决方案,该方案深度融合豆包等AI大模型、内置广和通Cat.1模组,助力智能玩具实现AI化升级。该
    的头像 发表于 01-21 10:27 1664次阅读

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    处理器,集成了3.2TOPs@INT8算力的高能NPU,提供强大的AI推理能力,能够高效执行复杂的视觉(CV)及大语言模型(LLM)任务,满足各类智能应用场景的需求
    的头像 发表于 01-17 18:48 1193次阅读
    新品| LLM630 Compute Kit,AI 大语言<b class='flag-5'>模型</b><b class='flag-5'>推理</b>开发平台

    IGBT模块在颇具挑战性的逆变器应用中提供更高能

    背景:电力驱动的能虽高,但电动汽车、数据中心、热泵等应用仍需大量能源运行,因此提高能至关重要。 技术原理:IGBT(绝缘栅双极晶体管)模块是一种电力电子器件,它结合了MOSFET的
    的头像 发表于 01-16 10:47 867次阅读