0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI推理的存储,看好SRAM?

晶芯观察 来源:电子发烧友网 作者:黄晶晶 2025-03-03 08:51 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/黄晶晶)近几年,生成式AI引领行业变革,AI训练率先崛起,带动高带宽内存HBM一飞冲天。但我们知道AI推理的广泛应用才能推动AI普惠大众。在AI推理方面,业内巨头、初创公司等都看到了其前景并提前布局。AI推理也使得存储HBM不再是唯一热门,更多存储芯片与AI推理芯片结合,拥有了市场机会。

已经有不少AI推理芯片、存算一体芯片将SRAM替代DRAM,从而获得更快的访问速度、更低的刷新延迟等。

静态随机存取存储器(Static Random-Access Memory,SRAM)是随机存取存储器的一种。这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(DRAM)里面所储存的数据就需要周期性地更新。但当电力供应停止时,SRAM储存的数据还是会消失,这与在断电后还能储存资料的ROM或闪存不同。

SRAM具有较高的性能,但SRAM的集成度较低,功耗较DRAM大,SRAM需要很大的面积。同样面积的硅片可以做出更大容量的DRAM,因此SRAM显得更贵。SRAM可作为置于CPU与主存间的高速缓存,不需要定期刷新,响应速度非常快,可用于CPU的一级缓冲、二级缓冲。

GroqLPU近存计算

在AI推理大潮下,Groq公司开发的语言处理单元(Language Processing Unit,即LPU),以其独特的架构,带来了极高的推理性能的表现。

Groq的芯片采用14nm制程,搭载了230MB SRAM以保证内存带宽,片上内存带宽达80TB/s。
SRAM 的访问速度比 DRAM 快得多,这使得它在某些计算密集型应用中表现得非常出色。Groq LPU 芯片采用大容量 SRAM内存有助于提高机器学习人工智能等计算密集型工作负载的效率。

Groq成立于 2016 年,总部位于美国加利福尼亚州山景城,是一家 AI 推理芯片厂商。该公司核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。Groq 创始人兼CEO Jonathan Ross是谷歌TPU项目的核心研发人员。

2024年8月,Groq 在最新一轮融资中筹集了 6.4 亿美元,由 BlackRock Inc. 基金领投,并得到了思科和三星投资部门的支持。

2024 年 12 月Groq在沙特阿拉伯达曼构建了中东地区最大的推理集群,该集群包括了 19000 个Groq LPU,并在 8 天内上线。

今年2月,Groq成功从沙特阿拉伯筹集 15 亿美元融资,用于扩展其位于沙特阿拉伯的 AI 基础设施。

AxeleraAIPU芯片:内存计算+RISC-V架构

Axelera公司介绍,内存计算是一种完全不同的数据处理方法,在这种方法中,存储器设备的横杆阵列可以用来存储矩阵,并在没有中间数据移动的情况下“就地”执行矩阵向量乘法。专有的数字内存计算(D-IMC)技术是实现高能效和卓越性能的关键。基于SRAM(静态随机访问存储器)和数字计算相结合,每个存储单元有效地成为一个计算单元。这从根本上增加了每个计算机周期的操作数(每个存储单元每个周期一次乘法和一次累加),而不受噪音或较低精度等问题的影响。

Axelera的AIPU芯片采用了创新的内存计算技术。与传统的磁盘存储相比,内存计算将数据存储在主内存(RAM)中,从而加快了数据处理速度。这一技术使得Axelera的芯片在提供高计算性能的同时,能以更低的成本和能耗来进行边缘AI计算。该芯片还采用了开源的RISC-V指令集架构(ISA)。RISC-V作为一种低成本、高效且灵活的ISA,允许根据特定的应用需求进行定制。它为Axelera提供了极大的设计自由度和创新空间。

去年,Axelera获得了来自三星电子风险投资部门三星Catalyst的大力支持,成功筹集了6800万美元,至此Axelera的总融资额已达到1.2亿美元。新投资者包括三星基金、欧洲创新委员会基金、创新产业战略伙伴关系基金和Invest-NL。

EnCharge AI模拟存内计算

AI 芯片初创公司 EnCharge AI表示,已开发出一种用于 AI 推理的新型内存计算架构,EnCharge AI的核心技术是基于模拟存内计算的AI芯片。这种创新的芯片设计采用"基于电荷的存储器",通过读取存储平面上的电流而非单个比特单元来处理数据,使用更精确的电容器替代了传统的半导体

GPU等数字加速器相比,每瓦性能提高了 20 倍。EnCharge AI的推理芯片仅需一瓦的功率就能以8位元精度提供150 TOPS的AI运算。

EnCharge AI源自普林斯顿大学,该公司创始人兼CEO Naveen Verma的相关研究项目涉及到内存计算。用于机器学习计算的内存计算采用在RAM中运行计算的方式,以减少存储设备带来的延迟。

今年初,EnCharge AI完成超额认购的1亿美元b轮融资。此轮超额认购融资使EnCharge AI的总融资额超过1.44亿美元,将推动其首款以客户端运算为主的AI加速器产品,并在2025年实现商业化。

d-Matrix数字内存计算DIMC架构

d-Matrix采用数字内存计算(DIMC)的引擎架构将计算移动到RAM(内存)附近,该数字存算一体技术将存储器与计算单元中的乘法累加器(MAC)进行了合并,获得了更大的计算带宽和效率,降低延迟,减少能耗。首批采用d-Matrix的DIMC架构的产品Jayhawk II处理器,包含约165亿晶体管的Chiplet。每个Jayhawk II Chiplet都包含一个RISC-V核心对Chiplet进行管理,每个核心有八个并行操作的DIMC单元。

去年底d-Matrix首款人工智能芯片Corsair开始出货。每张Corsair卡由多个DIMC计算核心驱动,具有2400 TFLOP的8位峰值计算能力、2GBSRAM和高达256GB的LPDDR6。

d-Matrix公司是一家位于加利福尼亚州圣克拉拉市的初创公司,专注于人工智能芯片的研发。该公司的主要产品是针对数据中心云计算中的AI服务器设计的芯片,旨在优化人工智能推理工作负载。d-Matrix公司已经获得了多家知名投资机构的支持,包括微软风险投资部门、新加坡投资公司淡马锡、Palo Alto Networks等,D-Matrix曾在2022年4月获得了4400万美元融资,由 M12 和韩国半导体制造商 SK 海力士公司领投。累计融资超过1.6亿美元。

虽然说SRAM的拥有成本比较高,但其在AI推理运算中能够减少数据来回传输的延迟,避免拖慢整个AI处理的速度。在AI推理的浪潮下,SRAM将发挥更大的作用。还有哪些存储芯片因AI推理而赢得机会,我们将持续关注报道。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 存储
    +关注

    关注

    13

    文章

    4889

    浏览量

    90289
  • sram
    +关注

    关注

    6

    文章

    833

    浏览量

    117727
  • AI
    AI
    +关注

    关注

    91

    文章

    41115

    浏览量

    302608
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    华为破解HBM依赖!AI推理黑科技UCM上线,9月正式开源

    8月12日,在2025金融AI推理应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周越峰宣布,华为此次和银联联合创新,推出AI推理
    的头像 发表于 08-13 08:58 1.1w次阅读
    华为破解HBM依赖!<b class='flag-5'>AI</b><b class='flag-5'>推理</b>黑科技UCM上线,9月正式开源

    sram存储器是什么,sram存储芯片选型要点

    在半导体存储芯片领域,SRAM(静态随机存取存储器)一直以高速、低延迟的特性占据着独特位置。与需要不断刷新的DRAM不同,SRAM采用4T或6T晶体管构成的双稳态触发器结构,只要通电就
    的头像 发表于 04-14 15:07 192次阅读

    大为创芯进军AI眼镜存储,端侧AI存储全面布局

    当前大模型应用持续渗透,AI 产业正迎来一轮关键的架构迁移,AI 存储正从以云端集中处理为主,逐步向终端与边缘侧下沉延伸。这一趋势让端侧存储从传统的数据载体,升级为支撑本地
    的头像 发表于 04-03 10:20 4093次阅读
    大为创芯进军<b class='flag-5'>AI</b>眼镜<b class='flag-5'>存储</b>,端侧<b class='flag-5'>AI</b><b class='flag-5'>存储</b>全面布局

    端侧AI进入爆发期,江波龙“集成存储”引领AI PC/手机、可穿戴存储创新

    从DeepSeek AI推理大模型到今年爆火的OpenClaw AI智能体,端侧AI市场被彻底引爆。如果说AI大模型训练成就了HBM高带宽
    的头像 发表于 04-01 10:06 5058次阅读
    端侧<b class='flag-5'>AI</b>进入爆发期,江波龙“集成<b class='flag-5'>存储</b>”引领<b class='flag-5'>AI</b> PC/手机、可穿戴<b class='flag-5'>存储</b>创新

    是德科技推出全新AI推理仿真平台

    是德科技(NYSE: KEYS)近日推出KAI推理构建器(Keysight AI Inference Builder),这款仿真与分析平台旨在大规模验证针对推理进行优化的AI基础设施。
    的头像 发表于 03-20 17:27 815次阅读
    是德科技推出全新<b class='flag-5'>AI</b><b class='flag-5'>推理</b>仿真平台

    国产芯片伪SRAM存储器psram

    SRAM本质上是一种经过优化的DRAM(动态随机存取存储器),其核心技术在于通过内置的控制逻辑电路,模拟传统SRAM的接口时序,从而在使用上具备SRAM的简便性。用户无需关心内部复杂
    的头像 发表于 03-03 16:23 203次阅读

    AI推理芯片需求爆发,OpenAI欲寻求新合作伙伴

    电子发烧友网综合报道,在人工智能迅猛发展的当下,AI推理芯片需求正呈爆发式增长。   AI推理,即支撑如ChatGPT这类AI模型响应用户问
    的头像 发表于 02-03 17:15 3260次阅读

    使用NORDIC AI的好处

    原始传感器数据,可显著降低功耗、延长电池寿命。[Edge AI 概述; Nordic Edge AI 技术页] 降低云依赖与时延 直接在设备上做推理,很多决策可以“本地实时”完成,不必等云端响应
    发表于 01-31 23:16

    华为数据存储与「DaoCloud 道客」发布AI推理加速联合解决方案

    AI产业已从“追求模型能力极限”转向“追求推理体验最优化”,推理体验决定用户与AI的交互质感。当前推理应用快速发展,Token调用量爆发式增
    的头像 发表于 11-28 10:03 483次阅读
    华为数据<b class='flag-5'>存储</b>与「DaoCloud 道客」发布<b class='flag-5'>AI</b><b class='flag-5'>推理</b>加速联合解决方案

    双口SRAM静态随机存储存储原理

    在各类存储设备中,SRAM(静态随机存储器)因其高速、低功耗和高可靠性,被广泛应用于高性能计算、通信和嵌入式系统中。其中,双口SRAM静态随机存储
    的头像 发表于 11-25 14:28 783次阅读

    PSRAM融合SRAM与DRAM优势的存储解决方案

    PSRAM(伪静态随机存储器)是一种兼具SRAM接口协议与DRAM内核架构的特殊存储器。它既保留了SRAM无需复杂刷新控制的易用特性,又继承了DRAM的高密度低成本优势。这种独特的设计
    的头像 发表于 11-11 11:39 1002次阅读

    高速存储sram,带ECC的异步SRAM系列存储方案

    在要求高性能与高可靠性的电子系统中,存储器的选择往往成为设计成败的关键。Netsol推出的高速异步SRAM系列,凭借其出色的性能表现与独有的错误校正(ECC)能力,为工业控制、通信设备及高精度计算等应用提供了值得信赖的存储解决方
    的头像 发表于 11-05 16:21 546次阅读

    什么是AI模型的推理能力

    NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
    的头像 发表于 09-23 15:19 1472次阅读

    华为亮相2025金融AI推理应用落地与发展论坛

    近日,2025金融AI推理应用落地与发展论坛在上海举行。中国银联执行副总裁涂晓军、华为数字金融军团CEO曹冲出席本次论坛并发表致辞。论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士发布AI
    的头像 发表于 08-15 09:45 1386次阅读

    信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。其核心优势在于强大的推理引擎能力,融合了自然语言处理(
    发表于 07-16 15:29