0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI推理带火的ASIC,开发成败在此一举!

Hobby观察 来源:电子发烧友网 作者:梁浩斌 2025-03-03 00:13 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/梁浩斌)去年年底,多家大厂爆出开发数据中心ASIC芯片的消息,包括传闻苹果与博通合作开发面向AI推理的ASIC,亚马逊也在年底公布了其AIASIC的应用实例,展示出ASIC的应用性价比远超GPU,加上博通财报AI业务同比大增220%,掀起了AI推理端的ASIC热潮。

那么ASIC跟传统的GPU有哪些区别,开发上又有哪些流程上的不同?

ASIC和GPU

通用GPU在设计之初就为了适配更多使用场景,在AI应用上,GPU支持训练、推理、通用计算等全流程,以英伟达GPU为例,通过CUDA生态,英伟达GPU能够快速适配新的算法,比如从Transformer到CNN的迁移,只需要修改30%左右的代码。

相比通用GPU,ASIC是专为满足特定应用而设计的芯片,针对特定应用的特定算法进行硬件级别的优化,尤其在AI应用中,比如运行矩阵乘法、张量计算等任务,能够相比GPU效率更高。

比如谷歌TPU就是一款ASIC,采用脉动阵列设计,通过固化数据流水线减少内存访问次数,能效比达GPU的3.2倍

相比之下GPU使用通用计算单元处理多种任务,为了满足不同类型的计算需求,必然需要存在计算冗余。

GPU由于架构的特性,一般会在AI计算中保留图形渲染、视频编解码等功能模块,但在AI计算中这些模块大部分处于闲置状态。有研究指出,英伟达H100GPU上有大约15%的晶体管是未在AI计算过程中被使用的。

同时,在计算流程上,GPU在处理AI计算任务时是需要通过CUDA软件栈进行任务调度,比如矩阵乘法的运行时需要经过内存加载、指令分发、TensorCore计算、结果回写等多个步骤。

而在ASIC上,可以通过硬件级的流水线固化数据流,能够减少计算流程步骤,提高运算效率。在减少计算流程的同时,ASIC对内存访问模式的优化,还能有助于降低内存控制器的功耗。

AI计算中,低精度是以损失部分准确率为代价,通过量化压缩数据来提高推理速度。目前AI推理中INT8/FP16的精度,GPU一般支持FP32/FP64等高精度计算,在混合精度训练中,GPU还需要额外的显存来转换成低精度结果,同样的芯片,在运行高精度和低精度的算力也不同。

尽管精度的选择本质上是准确性和效率的取舍,但AI推理等应用中,对精度的需求并不需要极致的接近100%,但仍能保持较高的水准。ASIC一般直接支持低精度计算,在AI计算时的效率能够相比GPU大幅提高,但保持一定的准确率。比如有数据显示,TikTok的推荐算法系统采用INT8精度,但依然保持了接近99%的推荐准确率。

所以,ASIC相比GPU,在硬件架构上可以针对专有应用进行特定优化,提高计算效率和降低功耗。在成本方面,ASIC在规模量产的情况下可以降至GPU的三分之一,但前期开发成本仍不能忽视。

可能大家也发现,目前定制开发高算力ASIC的厂商,无一例外是云计算大厂,本身公司业务就有极大规模的算力需求。ASIC定制费用,主要是开发过程中的一次性工程费用,也被业内称为NRE(Non-RecurringEngineering)。顾名思义,NRE费用只需要支出一次,后续规模生产中不需要再增加这部分费用。

NRE费用中,包含芯片设计的成本,比如研发人员薪酬、EDA工具授权费等,这与芯片使用的制程工艺、芯片本身的复杂程度相关;然后是版图设计成本,其实这里的概念跟芯片设计的成本类似,主要是涉及芯片的物理布局设计,需要特定的研发人员和软件支持;再是IP授权费用,一般是一些通用的IP,比如CPUIP、内存控制器、接口IP等。

以定制一款采用5nm制程的ASIC为例,NRE费用可以高达1亿至2亿美元。然而一旦能够大规模出货,NRE费用就可以很大程度上被摊薄。

此前有业内人士分析,中等复杂程度的ASIC盈亏平衡点在10万片左右,这对于很多厂商来说已经是遥不可及。

ASIC开发流程

在开发ASIC时,最关键的是以算法架构为主导,围绕这一方面去进行其他工作。

首先是进行需求定义,要明确ASIC的目标场景是什么,比如推理还是训练?端侧还是云端?用到CNN还是Transformer?在AI领域,定制ASIC的往往是云计算大厂,这些厂商一般会有顶尖的架构师去进行充分考虑,未来可能的应用、效率、成本、技术可行性等都会包含在内,同时平衡性能、成本、功耗等关键指标。当然也有一些芯片厂商推出针对某些应用场景的ASIC产品。那么在前期产品定义就十分关键,有时候还需要开发针对应用场景的算法配合自己的芯片产品使用。

接下来是最关键的算法和架构优化,需要对行业发展趋势有足够认知,选择适合的算法进行优化,保证算法与硬件架构适配,通过仿真测试验证。

然后设计ASIC的整体架构,比如功能模块的划分和模块之间的互连,以及接口等IP的使用。

在前端设计中,使用VHDL或Verilog等硬件描述语言对设计进行编码,然后将编码转换为门级网表,对其进行优化满足芯片面积和性能要求。

进入后端设计后,需要将门级网表映射到具体的芯片物理结构上,进行布局和布线。

完成模块布局和布线后,就可以开始进行FPGA验证,测试ASIC设计的功能是否满足需求。随后完成流片、测试后就可以投入大规模生产。

总的来说,ASIC的开发中,硬件和软件的协同是其成功的关键,在拥有强大的芯片性能同时,还要筑建完整的软件生态,吸引更多用户使用。

当然,在ASIC量产进入市场后,软件栈开发也是相当重要的,需要编译器将TensorFlow和PyTorch等机器学习模型映射到硬件指令上,在生态上也需要支持更多主流的框架,以尽可能满足更多使用需求。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • asic
    +关注

    关注

    34

    文章

    1269

    浏览量

    124028
  • AI
    AI
    +关注

    关注

    89

    文章

    38085

    浏览量

    296316
  • 芯片开发
    +关注

    关注

    0

    文章

    12

    浏览量

    2642
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI推理的存储,看好SRAM?

    电子发烧友网报道(文/黄晶晶)近几年,生成式AI引领行业变革,AI训练率先崛起,带动高带宽内存HBM飞冲天。但我们知道AI推理的广泛应用才
    的头像 发表于 03-03 08:51 2404次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>的存储,看好SRAM?

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战

    的工作吗? 从书中也了解到了AI芯片都有哪些?像CPU、GPU、FPGA、ASIC都是AI芯片。 其他的还是知道的,FPGA属于AI芯片这个真不知道,以为它是数字芯片的,不晓得属于
    发表于 09-12 16:07

    华为亮相2025金融AI推理应用落地与发展论坛

    近日,2025金融AI推理应用落地与发展论坛在上海举行。中国银联执行副总裁涂晓军、华为数字金融军团CEO曹冲出席本次论坛并发表致辞。论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士发布AI
    的头像 发表于 08-15 09:45 931次阅读

    AI芯片,需要ASIC

    电子发烧友网报道(文/李弯弯) 2025年,全球AI芯片市场正迎来场结构性变革。在英伟达GPU占据主导地位的大格局下,ASIC(专用集成电路)凭借针对AI任务的定制化设计,成为推动算
    的头像 发表于 07-26 07:30 5795次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新AI大模型。其核心优势
    发表于 07-16 15:29

    AI端侧部署开发(SC171开发套件V3)

    AI端侧部署开发(SC171开发套件V3) 序列 课程名称 视频课程时长 视频课程链接 课件链接 工程源码 1 Fibo AI Stack模型转化指南------Docker Desk
    发表于 04-16 18:30

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    生态和天玑AI生态的全面打通。这意味着,天玑开发者将有机会获取更多NVIDIA TAO生态的AI开发资源,TAO生态开发者可将
    发表于 04-13 19:52

    NVIDIA 推出开放推理 AI 模型系列,助力开发者和企业构建代理式 AI 平台

    月 18 日 ——  NVIDIA 今日发布具有推理功能的开源 Llama Nemotron 模型系列,旨在为开发者和企业提供业务就绪型基础,助力构建能够独立工作或以团队形式完成复杂任务的高级 AI 智能体。
    发表于 03-19 09:31 335次阅读
    NVIDIA 推出开放<b class='flag-5'>推理</b> <b class='flag-5'>AI</b> 模型系列,助力<b class='flag-5'>开发</b>者和企业构建代理式 <b class='flag-5'>AI</b> 平台

    AI开发板】正点原子K230D BOX开发板来了!款性能强悍且小巧便携的AI开发板!

    AI开发板】正点原子K230D BOX开发板来了!款性能强悍且小巧便携的AI开发板! 正
    发表于 02-18 16:56

    Qwen大模型助力开发低成本AI推理方案

    阿里巴巴的开源Qwen2.5模型近期在AI领域引发了广泛关注。这大模型的推出,为斯坦福大学与伯克利大学的研究人员提供了强大的技术支持,使他们能够成功开发出低成本的AI
    的头像 发表于 02-12 09:19 976次阅读

    使用NVIDIA推理平台提高AI推理性能

    NVIDIA推理平台提高了 AI 推理性能,为零售、电信等行业节省了数百万美元。
    的头像 发表于 02-08 09:59 1307次阅读
    使用NVIDIA<b class='flag-5'>推理</b>平台提高<b class='flag-5'>AI</b><b class='flag-5'>推理</b>性能

    生成式AI推理技术、市场与未来

    (reasoning)能力,这转变将极大推动上层应用的发展。 红杉资本近期指出,在可预见的未来,逻辑推理推理时计算将是个重要主题,并开启生成式
    的头像 发表于 01-20 11:16 1245次阅读
    生成式<b class='flag-5'>AI</b><b class='flag-5'>推理</b>技术、市场与未来

    新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

    LLM630LLM推理,视觉识别,可开发,灵活扩展···LLM630ComputeKit是AI大语言模型推理
    的头像 发表于 01-17 18:48 1191次阅读
    新品| LLM630 Compute Kit,<b class='flag-5'>AI</b> 大语言模型<b class='flag-5'>推理</b><b class='flag-5'>开发</b>平台

    Neuchips展示大模型推理ASIC芯片

    领先的AI专用集成电路(ASIC)解决方案提供商Neuchips在CES 2024上展示了其革命性的Raptor Gen AI加速芯片(以前称为N3000)和Evo PCIe加速卡LLM解决方案
    的头像 发表于 01-06 17:30 1276次阅读

    ASIC!大厂AI训练推理抛弃GPU;博通的护城河有多深?

    电子发烧友网报道(文/梁浩斌)在上周末,博通应该可以说是投资圈和科技圈最火爆的话题,大家纷纷惊呼“英伟达的对手终于出现了!”“ASIC要超越GPU”云云。   这切都要源于上周五博通公布的炸裂财报
    的头像 发表于 12-18 01:25 3881次阅读