如果说2025年是生成式AI大模型的“百家争鸣”,那2026年将成为AI应用将在各行各业落地的“部署元年”。存储需求逐步从通用型向高性能、低延迟的eSSD等产品演进,不仅推动存储架构升级,也使得系统协同能力提升成为影响未来AI竞争的重要因素。
图源于CFMS 2026现场一、存储行业进入重大转型期
在MemoryS 2026峰会上,与会者普遍认为全球存储行业的新一轮跨越已经到来,技术升级、产品系统协同能力、市场环境成为行业关注的三大焦点。
图源于CFMS 2026现场存储从通用硬件转向为AI定制的专用架构
高性能AI需求推动介质替代,QLC SSD在大容量市场加速替代HDD,同时定制化组件成为场景标配。
存储产品从“单点性能”转向“系统协同”
计算存储技术可在存储层完成数据预处理,CXL技术打破内存与存储界限实现池化管理;同时,存储软件需与PyTorch等AI框架深度耦合,市场也更倾向采购集成化AI数据平台,凸显系统协同价值。
AI工作负载从云端延伸至终端,存储需求分化明显
应用场景从消费领域转向数据中心和端侧AI,市场需求增长最快是eSSD,其次需求强劲的是适配端侧AI应用的各类嵌入式存储产品,各类产品在容量、性能、功耗和安全性需要更高提升。
二、AgenticAI需要更全面的存储系统
图源于CFMS 2026现场OpenClaw的横空出世推动AI Agent的发展,以“龙虾”为例,其能力已经从单轮问答升级为多轮任务规划、长期记忆调用以及跨应用协同执行,AI Agent需要承载更大规模的KV Cache和上下文数据,其Token消耗量相比传统对话式AI显著提升,对云端eSSD的吞吐能力与容量、端侧cSSD及嵌入式存储的并发能力、响应延迟及持续写入能力提出了更高要求。
AI Agent的新型访问模式,要求存储系统不仅满足容量需求,更需要在低延迟、高并发以及QoS稳定性方面进行系统级优化。频繁的状态同步对随机读写性能和低延迟提出更高要求,传统慢速存储甚至可能直接导致AI思考卡顿,影响智能体的连续决策。
在数据中心与端侧AI场景中,存储产品从单纯的元件变成了AI基础设施建设的核心参与者,eSSD与嵌入式存储产品成为影响AI系统响应效率与用户体验的核心环节。
三、存储是AI行业底层操作系统的基础设施
在传统架构中,CPU或GPU决定性能上限,存储负责“跟上”;而在AI架构中,存储带宽与延迟开始反过来制约算力释放效率。
在推理过程中,数据在存储、内存与计算核心间的频繁搬运形成“存储墙”,KV Cache等中间数据的读写不仅带来时延,能耗甚至超过计算本身。
随着模型规模扩大和上下文长度增加,高性能存储成本高且容量有限,行业开始通过分层存储架构,将部分数据从HBM和DRAM下沉至eSSD进行管理,在控制成本的同时提升系统可扩展性,使存储逐步从“数据仓库”演变为支撑AI推理效率的数据引擎。
数据来源于:NVIDIA四、德明利AI+全栈存储解决方案规模落地
AI浪潮下,存储行业的竞争已从单一产品性能比拼,转向存算深度协同。德明利立足于本地AI全栈存储子系统的研发,依托“主控芯片+固件算法+场景适配”的全链路技术优势,构建了整机级验证与联合调优能力,形成覆盖消费电子、服务器、端侧AI的完整存储产品生态。
企业级存储方案为AI训练、推理、数据处理提供支撑
面向AI大模型和智算中心场景,德明利推出PCIe/SATA全系列企业级SSD与DDR5 RDIMM等高频内存产品。TS3160型号的企业级SSD用于AI服务器多元部署,全容量覆盖且高可靠稳定。企业级DDR5采用8位ECC机制+RCD架构,在带宽、容量、稳定性与能效上表现突出。



端侧嵌入式存储场景满足高端AI设备低功耗高性能需求
端侧嵌入式存储场景,LPDDR5/5X支持多Bank模式,数据传输速率高达8533Mbps,搭配DVFS动态调压调频技术,满足高端AI设备低功耗高性能需求;eMMC、UFS系列持续迭代,可提供深度定制化与全场景方案。
数据来源于:NVIDIA依托高端制造与自有供应链优势,德明利加快光明基地建设,实现系统级整合的可交付、可量产,加速在 AI数据中心、智能终端等场景规模化落地,全面夯实公司AI +全栈存储解决方案的市场竞争力。
-
存储
+关注
关注
13文章
4881浏览量
90251 -
AI驱动
+关注
关注
0文章
90浏览量
4661 -
德明利
+关注
关注
1文章
51浏览量
228
发布评论请先 登录
Agentic AI驱动架构升级,存储行业从性能竞争走向系统协同
评论