电子发烧友网报道(文/黄晶晶)近几年,生成式AI引领行业变革,AI训练率先崛起,带动高带宽内存HBM一飞冲天。但我们知道AI推理的广泛应用才能推动AI普惠大众。在AI推理方面,业内巨头、初创公司等都看到了其前景并提前布局。AI推理也使得存储HBM不再是唯一热门,更多存储芯片与AI推理芯片结合,拥有了市场机会。
已经有不少AI推理芯片、存算一体芯片将SRAM替代DRAM,从而获得更快的访问速度、更低的刷新延迟等。
静态随机存取存储器(Static Random-Access Memory,SRAM)是随机存取存储器的一种。这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(DRAM)里面所储存的数据就需要周期性地更新。但当电力供应停止时,SRAM储存的数据还是会消失,这与在断电后还能储存资料的ROM或闪存不同。
SRAM具有较高的性能,但SRAM的集成度较低,功耗较DRAM大,SRAM需要很大的面积。同样面积的硅片可以做出更大容量的DRAM,因此SRAM显得更贵。SRAM可作为置于CPU与主存间的高速缓存,不需要定期刷新,响应速度非常快,可用于CPU的一级缓冲、二级缓冲。
GroqLPU近存计算
在AI推理大潮下,Groq公司开发的语言处理单元(Language Processing Unit,即LPU),以其独特的架构,带来了极高的推理性能的表现。
Groq的芯片采用14nm制程,搭载了230MB SRAM以保证内存带宽,片上内存带宽达80TB/s。
SRAM 的访问速度比 DRAM 快得多,这使得它在某些计算密集型应用中表现得非常出色。Groq LPU 芯片采用大容量 SRAM内存有助于提高机器学习和人工智能等计算密集型工作负载的效率。
Groq成立于 2016 年,总部位于美国加利福尼亚州山景城,是一家 AI 推理芯片厂商。该公司核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。Groq 创始人兼CEO Jonathan Ross是谷歌TPU项目的核心研发人员。
2024年8月,Groq 在最新一轮融资中筹集了 6.4 亿美元,由 BlackRock Inc. 基金领投,并得到了思科和三星投资部门的支持。
2024 年 12 月Groq在沙特阿拉伯达曼构建了中东地区最大的推理集群,该集群包括了 19000 个Groq LPU,并在 8 天内上线。
今年2月,Groq成功从沙特阿拉伯筹集 15 亿美元融资,用于扩展其位于沙特阿拉伯的 AI 基础设施。
AxeleraAIPU芯片:内存计算+RISC-V架构
Axelera公司介绍,内存计算是一种完全不同的数据处理方法,在这种方法中,存储器设备的横杆阵列可以用来存储矩阵,并在没有中间数据移动的情况下“就地”执行矩阵向量乘法。专有的数字内存计算(D-IMC)技术是实现高能效和卓越性能的关键。基于SRAM(静态随机访问存储器)和数字计算相结合,每个存储单元有效地成为一个计算单元。这从根本上增加了每个计算机周期的操作数(每个存储单元每个周期一次乘法和一次累加),而不受噪音或较低精度等问题的影响。
已经有不少AI推理芯片、存算一体芯片将SRAM替代DRAM,从而获得更快的访问速度、更低的刷新延迟等。
静态随机存取存储器(Static Random-Access Memory,SRAM)是随机存取存储器的一种。这种存储器只要保持通电,里面储存的数据就可以恒常保持。相对之下,动态随机存取存储器(DRAM)里面所储存的数据就需要周期性地更新。但当电力供应停止时,SRAM储存的数据还是会消失,这与在断电后还能储存资料的ROM或闪存不同。
SRAM具有较高的性能,但SRAM的集成度较低,功耗较DRAM大,SRAM需要很大的面积。同样面积的硅片可以做出更大容量的DRAM,因此SRAM显得更贵。SRAM可作为置于CPU与主存间的高速缓存,不需要定期刷新,响应速度非常快,可用于CPU的一级缓冲、二级缓冲。
GroqLPU近存计算
在AI推理大潮下,Groq公司开发的语言处理单元(Language Processing Unit,即LPU),以其独特的架构,带来了极高的推理性能的表现。
Groq的芯片采用14nm制程,搭载了230MB SRAM以保证内存带宽,片上内存带宽达80TB/s。
SRAM 的访问速度比 DRAM 快得多,这使得它在某些计算密集型应用中表现得非常出色。Groq LPU 芯片采用大容量 SRAM内存有助于提高机器学习和人工智能等计算密集型工作负载的效率。
Groq成立于 2016 年,总部位于美国加利福尼亚州山景城,是一家 AI 推理芯片厂商。该公司核心团队来源于谷歌最初的张量处理单元(TPU)工程团队。Groq 创始人兼CEO Jonathan Ross是谷歌TPU项目的核心研发人员。
2024年8月,Groq 在最新一轮融资中筹集了 6.4 亿美元,由 BlackRock Inc. 基金领投,并得到了思科和三星投资部门的支持。
2024 年 12 月Groq在沙特阿拉伯达曼构建了中东地区最大的推理集群,该集群包括了 19000 个Groq LPU,并在 8 天内上线。
今年2月,Groq成功从沙特阿拉伯筹集 15 亿美元融资,用于扩展其位于沙特阿拉伯的 AI 基础设施。
AxeleraAIPU芯片:内存计算+RISC-V架构
Axelera公司介绍,内存计算是一种完全不同的数据处理方法,在这种方法中,存储器设备的横杆阵列可以用来存储矩阵,并在没有中间数据移动的情况下“就地”执行矩阵向量乘法。专有的数字内存计算(D-IMC)技术是实现高能效和卓越性能的关键。基于SRAM(静态随机访问存储器)和数字计算相结合,每个存储单元有效地成为一个计算单元。这从根本上增加了每个计算机周期的操作数(每个存储单元每个周期一次乘法和一次累加),而不受噪音或较低精度等问题的影响。

Axelera的AIPU芯片采用了创新的内存计算技术。与传统的磁盘存储相比,内存计算将数据存储在主内存(RAM)中,从而加快了数据处理速度。这一技术使得Axelera的芯片在提供高计算性能的同时,能以更低的成本和能耗来进行边缘AI计算。该芯片还采用了开源的RISC-V指令集架构(ISA)。RISC-V作为一种低成本、高效且灵活的ISA,允许根据特定的应用需求进行定制。它为Axelera提供了极大的设计自由度和创新空间。
去年,Axelera获得了来自三星电子风险投资部门三星Catalyst的大力支持,成功筹集了6800万美元,至此Axelera的总融资额已达到1.2亿美元。新投资者包括三星基金、欧洲创新委员会基金、创新产业战略伙伴关系基金和Invest-NL。
EnCharge AI:模拟存内计算
AI 芯片初创公司 EnCharge AI表示,已开发出一种用于 AI 推理的新型内存计算架构,EnCharge AI的核心技术是基于模拟存内计算的AI芯片。这种创新的芯片设计采用"基于电荷的存储器",通过读取存储平面上的电流而非单个比特单元来处理数据,使用更精确的电容器替代了传统的半导体。
与GPU等数字加速器相比,每瓦性能提高了 20 倍。EnCharge AI的推理芯片仅需一瓦的功率就能以8位元精度提供150 TOPS的AI运算。
EnCharge AI源自普林斯顿大学,该公司创始人兼CEO Naveen Verma的相关研究项目涉及到内存计算。用于机器学习计算的内存计算采用在RAM中运行计算的方式,以减少存储设备带来的延迟。

今年初,EnCharge AI完成超额认购的1亿美元b轮融资。此轮超额认购融资使EnCharge AI的总融资额超过1.44亿美元,将推动其首款以客户端运算为主的AI加速器产品,并在2025年实现商业化。
d-Matrix:数字内存计算DIMC架构
d-Matrix采用数字内存计算(DIMC)的引擎架构将计算移动到RAM(内存)附近,该数字存算一体技术将存储器与计算单元中的乘法累加器(MAC)进行了合并,获得了更大的计算带宽和效率,降低延迟,减少能耗。首批采用d-Matrix的DIMC架构的产品Jayhawk II处理器,包含约165亿晶体管的Chiplet。每个Jayhawk II Chiplet都包含一个RISC-V核心对Chiplet进行管理,每个核心有八个并行操作的DIMC单元。
去年底d-Matrix首款人工智能芯片Corsair开始出货。每张Corsair卡由多个DIMC计算核心驱动,具有2400 TFLOP的8位峰值计算能力、2GBSRAM和高达256GB的LPDDR6。
d-Matrix公司是一家位于加利福尼亚州圣克拉拉市的初创公司,专注于人工智能芯片的研发。该公司的主要产品是针对数据中心和云计算中的AI服务器设计的芯片,旨在优化人工智能推理工作负载。d-Matrix公司已经获得了多家知名投资机构的支持,包括微软风险投资部门、新加坡投资公司淡马锡、Palo Alto Networks等,D-Matrix曾在2022年4月获得了4400万美元融资,由 M12 和韩国半导体制造商 SK 海力士公司领投。累计融资超过1.6亿美元。
虽然说SRAM的拥有成本比较高,但其在AI推理运算中能够减少数据来回传输的延迟,避免拖慢整个AI处理的速度。在AI推理的浪潮下,SRAM将发挥更大的作用。还有哪些存储芯片因AI推理而赢得机会,我们将持续关注报道。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
存储
+关注
关注
13文章
4889浏览量
90289 -
sram
+关注
关注
6文章
833浏览量
117727 -
AI
+关注
关注
91文章
41115浏览量
302608
发布评论请先 登录
相关推荐
热点推荐
华为破解HBM依赖!AI推理黑科技UCM上线,9月正式开源
8月12日,在2025金融AI推理应用落地与发展论坛上,华为公司副总裁、数据存储产品线总裁周越峰宣布,华为此次和银联联合创新,推出AI推理创
sram存储器是什么,sram存储芯片选型要点
在半导体存储芯片领域,SRAM(静态随机存取存储器)一直以高速、低延迟的特性占据着独特位置。与需要不断刷新的DRAM不同,SRAM采用4T或6T晶体管构成的双稳态触发器结构,只要通电就
大为创芯进军AI眼镜存储,端侧AI存储全面布局
当前大模型应用持续渗透,AI 产业正迎来一轮关键的架构迁移,AI 存储正从以云端集中处理为主,逐步向终端与边缘侧下沉延伸。这一趋势让端侧存储从传统的数据载体,升级为支撑本地
端侧AI进入爆发期,江波龙“集成存储”引领AI PC/手机、可穿戴存储创新
从DeepSeek AI推理大模型到今年爆火的OpenClaw AI智能体,端侧AI市场被彻底引爆。如果说AI大模型训练成就了HBM高带宽
是德科技推出全新AI推理仿真平台
是德科技(NYSE: KEYS)近日推出KAI推理构建器(Keysight AI Inference Builder),这款仿真与分析平台旨在大规模验证针对推理进行优化的AI基础设施。
国产芯片伪SRAM存储器psram
伪SRAM本质上是一种经过优化的DRAM(动态随机存取存储器),其核心技术在于通过内置的控制逻辑电路,模拟传统SRAM的接口时序,从而在使用上具备SRAM的简便性。用户无需关心内部复杂
AI推理芯片需求爆发,OpenAI欲寻求新合作伙伴
电子发烧友网综合报道,在人工智能迅猛发展的当下,AI推理芯片需求正呈爆发式增长。 AI推理,即支撑如ChatGPT这类AI模型响应用户问
使用NORDIC AI的好处
原始传感器数据,可显著降低功耗、延长电池寿命。[Edge AI 概述; Nordic Edge AI 技术页]
降低云依赖与时延
直接在设备上做推理,很多决策可以“本地实时”完成,不必等云端响应
发表于 01-31 23:16
华为数据存储与「DaoCloud 道客」发布AI推理加速联合解决方案
AI产业已从“追求模型能力极限”转向“追求推理体验最优化”,推理体验决定用户与AI的交互质感。当前推理应用快速发展,Token调用量爆发式增
双口SRAM静态随机存储器存储原理
在各类存储设备中,SRAM(静态随机存储器)因其高速、低功耗和高可靠性,被广泛应用于高性能计算、通信和嵌入式系统中。其中,双口SRAM静态随机存储
PSRAM融合SRAM与DRAM优势的存储解决方案
PSRAM(伪静态随机存储器)是一种兼具SRAM接口协议与DRAM内核架构的特殊存储器。它既保留了SRAM无需复杂刷新控制的易用特性,又继承了DRAM的高密度低成本优势。这种独特的设计
高速存储器sram,带ECC的异步SRAM系列存储方案
在要求高性能与高可靠性的电子系统中,存储器的选择往往成为设计成败的关键。Netsol推出的高速异步SRAM系列,凭借其出色的性能表现与独有的错误校正(ECC)能力,为工业控制、通信设备及高精度计算等应用提供了值得信赖的存储解决方
什么是AI模型的推理能力
NVIDIA 的数据工厂团队为 NVIDIA Cosmos Reason 等 AI 模型奠定了基础,该模型近日在 Hugging Face 的物理推理模型排行榜中位列榜首。
华为亮相2025金融AI推理应用落地与发展论坛
近日,2025金融AI推理应用落地与发展论坛在上海举行。中国银联执行副总裁涂晓军、华为数字金融军团CEO曹冲出席本次论坛并发表致辞。论坛上,华为公司副总裁、数据存储产品线总裁周跃峰博士发布AI
信而泰×DeepSeek:AI推理引擎驱动网络智能诊断迈向 “自愈”时代
DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI大模型。其核心优势在于强大的推理引擎能力,融合了自然语言处理(
发表于 07-16 15:29
AI推理的存储,看好SRAM?
评论