0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

AI产能虹吸效应:通用服务器面临结构性挑战,出货预期下调至+13%

Felix分析 来源:电子发烧友网 作者:吴子鹏 2026-04-17 09:05 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文 / 吴子鹏)在人工智能AI)浪潮席卷全球科技产业的背景下,市场对高性能计算设备的需求持续攀升。然而,这种旺盛的需求正对传统服务器市场形成挤压。根据知名市场研究机构 TrendForce 发布的最新报告,2026 年全球整体服务器出货量增幅预估从此前的 + 20% 下调至 + 13%。这一调整的核心原因,在于 AI 服务器的强劲需求挤占了通用服务器所需的关键零部件产能,进而拖累了后者的交付能力。

产能分配失衡:AI 服务器成 “产能黑洞”

TrendForce 的研究揭示了通用型服务器供应链面临的严峻挑战。尽管 2026 年通用型服务器订单需求稳健,且 AI 推理服务的普及本应带动通用型服务器进入替换与扩张周期,但核心零部件供应瓶颈正在抑制其成长动能。出货量调整背后,是 AI 服务器需求爆发引发的零部件产能 “虹吸效应”。一方面,厂商大幅调整产能向 AI 服务器倾斜。数据显示,AI 服务器对 DRAM 和 NAND 闪存的需求分别达到普通服务器的 8 倍和 3 倍,尤其是高带宽内存(HBM)已成为 AI 芯片的 “标配”。三星、SK 海力士、美光等存储巨头纷纷将晶圆产能和研发资源转向 HBM、DDR5 等高端产品,直接挤压了面向智能手机、PC 及通用服务器的 LPDDR、DDR4 等通用型芯片的供应。

另一方面,通用服务器与 AI 服务器在 PCBCPUPMIC、BMC 等关键零部件上产能共享,而上游供应商优先保障利润更高的 AI 产品线,导致通用服务器交付能力严重受限。

具体零部件交期情况:
·PCB 和 CPU:两项核心零部件交期已拉长至近一年
·PMIC(电源管理芯片):交货周期达到 35~40 周,较此前 21~26 周大幅延长
·BMC(基板管理控制器):交货周期从过往 11~16 周拉长至 21~26 周

更为严峻的是,三星计划关闭位于韩国的 S7 八英寸晶圆厂,该厂月产能约 5 万片,关闭后三星八英寸晶圆总月产能将从 25 万片降至 20 万片以下。台积电自 2025 年起启动八英寸产能削减计划,目标 2027 年部分厂区全面停产。8 英寸产能短缺已然成为 “死结”,厂商因多重原因不愿扩产,甚至不愿维护现有产能,而终端需求却愈发旺盛,需求端量价齐升已成为常态。

AI 服务器自身增长强劲,ASIC 方案崭露头角

TrendForce 的这一预测调整,清晰揭示了当前服务器产业正在经历的结构性变化。AI 技术的爆发式发展不仅催生了新的市场增长点,也在深刻改变供应链的资源配置逻辑。对于通用服务器厂商而言,如何应对零部件短缺、保障产品交付,将成为未来一段时间内的重要课题。

尽管 AI 服务器对通用服务器市场形成 “挤出效应”,但其自身发展势头依然迅猛。TrendForce 预计,2026 年全球 AI 服务器出货量将实现 28% 的同比增长。这一增长主要来自数据中心、云服务提供商以及各行业企业对 AI 算力的迫切需求。

在 AI 服务器的芯片方案选择上,报告也透露出新趋势。目前,图形处理器GPU)仍是 AI 加速主流方案,但专用集成电路(ASIC)方案增速被认为将高于 GPU 方案。主要原因是部分大型科技公司为优化特定工作负载、降低长期运营成本并减少对单一供应商依赖,正积极投入自研 AI ASIC 开发。

不过,ASIC 方案推广仍面临挑战。TrendForce 提到,自研 AI ASIC 的调校和优化过程更为耗时复杂,一定程度上限制了其短期普及速度。因此,该机构将 ASIC 方案在整体 AI 服务器中的占比预估从此前接近 28% 微调至 27% 左右。这表明,尽管 ASIC 前景广阔,但 GPU 短期内仍将占据 AI 加速市场主导地位。

同时,存储芯片市场自 2025 年起迈入一轮史无前例的 “超级牛市”。国金证券研究报告指出,2025 年存储芯片价格迎来暴涨行情,其中 DDR4 16Gb 内存条涨幅高达 1800%。应用于算力调度和系统调度的通用计算芯片(CPU)也将面临供不应求,英特尔AMD 2026 年服务器 CPU 产能已基本售罄。

未来展望:供应链重构与市场分化

当前困局也孕育着产业变革新契机。TrendForce 分析师指出,本轮调整本质是科技产业从 “传统计算” 向 “AI 原生” 转型的阵痛期。虽然短期服务器出货增长承压,但 AI 驱动的算力需求长期高企将倒逼供应链重构 —— 上游产能分配将更趋动态平衡,中游厂商需强化库存管理与供应链韧性,下游应用则需适应成本结构新常态。未来,技术迭代速度、地缘政治影响及市场需求弹性,将成为决定产业格局的关键变量。

如上所述,AI 服务器芯片市场正经历从 GPU 一家独大向多元架构并存的结构性转变。2023 年至 2026 年间,GPU 在 AI 服务器中的占比从 72.2% 逐步降至 69.7%,ASIC 方案则从 24.3% 提升至 27.8%,创下 2023 年以来最高占比。展望未来,异构计算与绿色算力将系统性重塑服务器行业的技术范式与价值创造模式。计算架构从 CPU 中心向 CPU+GPU+DSA 的异构融合演进,Chiplet 与先进封装技术支撑算力密度持续提升。此外,Compute Express Link(CXL)技术正成为重塑数据中心内存架构的关键力量,CXL 允许跨服务器共享内存资源,解决处理器性能增速远超内存带宽和容量增速的瓶颈。

在供应链重构背景下,国产替代正加速推进。国产 GPU 服务器在政策推动下加速渗透,2026 年上半年,政务、电信领域采购占比持续提升;“东数西算” 工程加速落地,上海、北京、浙江等地出台专项政策支持生成式 AI,推动智算中心集群化部署。同时,在半导体设备等 “卡脖子” 环节,北方华创、中微公司等国产设备商在刻蚀、薄膜沉积领域取得突破,有望借助 AI 基建浪潮实现市占率提升。

结语

2026 年全球服务器市场正经历 AI 浪潮与供应链瓶颈的双重考验。TrendForce 的下调预测,本质反映了产能分配失衡对市场增长的制约。短期内,通用服务器仍将面临交付难题;但长期来看,AI 服务器的高增长与通用服务器的补涨需求将共同推动服务器市场整体复苏。对于产业链企业而言,精准把握产能释放节奏与技术发展趋势,是应对市场变化、抓住发展机遇的关键。尤其在 ASIC 崛起、液冷普及、供应链重构的大背景下,提前布局的企业有望在 2027-2030 年新一轮增长周期中抢占先机。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI服务器PCBA加工技术解析:高算力时代的核心制造能力

    AI服务器PCBA加工 是AI服务器硬件制造的重要环节,也是支撑人工智能算力基础设施的重要技术能力。随着大模型训练和数据中心建设加速,AI
    的头像 发表于 04-16 22:57 56次阅读

    LabCompanion宏展全新推出高发热大负载Walk-in试验箱,助力AI算力用大型服务器测试验

    AI服务器挑战AI浪潮下,服务器已从单纯的数据处理机,演进为现今智能时代的核心基础设施。无论是训练大型语言模型(LLM)、即时推论
    的头像 发表于 02-07 10:03 884次阅读
    LabCompanion宏展全新推出高发热大负载Walk-in试验箱,助力<b class='flag-5'>AI</b>算力用大型<b class='flag-5'>服务器</b>测试验

    国产AI服务器核心工艺突破,高密度贴片良率创新高

    信号完整与热管理方案的同步验证。业界领先的贴片打样服务已形成从设计协同到多维测试的全流程支撑体系,为AI算力设备的快速迭代提供制造侧加速度。 核心挑战在于超高密度互连与异构集成。当前
    的头像 发表于 02-04 20:37 286次阅读
    国产<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>核心工艺突破,高密度贴片良率创新高

    普通服务器电源与AI服务器电源的区别(上)

    引言服务器是数据中心的核心设备,其稳定运行依赖可靠的电源供应。随着AI技术的飞速发展,AI服务器大量涌现,与普通服务器在应用场景等方面存在显
    的头像 发表于 01-12 09:31 1360次阅读
    普通<b class='flag-5'>服务器</b>电源与<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源的区别(上)

    1U AI 服务器电源设计的突破:电容小型化如何不翻车?

    随着AI算力需求不断增长,服务器电源的设计面临着前所未有的挑战。在1U高度的服务器电源设计中,如何满足高功率密度、高负载稳定性,并且在有限的
    的头像 发表于 01-09 14:15 485次阅读
    1U <b class='flag-5'>AI</b> <b class='flag-5'>服务器</b>电源设计的突破:电容小型化如何不翻车?

    AI 服务器电源测试项目研究报告

    01项目背景随着人工智能技术的飞速发展,AI服务器的需求急剧增加。电源作为AI服务器的关键组件,其性能直接影响服务器的稳定性、可靠
    的头像 发表于 12-16 10:22 943次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>服务器</b>电源测试项目研究报告

    AVX TAJ系列钽电容产地、产能与交期分析(2025.12.8)

    220美元/公斤涨至2025年365美元/公斤(+65.9%) 设备与工艺:高精度生产线建设周期长(18-24个月),且受环保限制 AI需求爆发:AI服务器单机用量是传统服务器的3-8
    发表于 12-09 10:44

    液冷散热时代:AI服务器如何重构磁元件设计

    随着AI服务器功率密度的快速提升,传统的风冷散热方案在热管理方面逐渐面临挑战。在此背景下,液冷散热技术正加速应用于数据中心,特别是高算力的AI
    的头像 发表于 11-21 11:42 1052次阅读
    液冷散热时代:<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>如何重构磁元件设计

    对话|AI服务器电源对磁性元件提出的新需求

    尚未拉开,整体处于同一起跑线。 面对AI服务器电源向“三高”——高功率密度、高效率、高可靠发展的趋势,AI服务器电源产业链各环节——无论是
    的头像 发表于 10-11 14:55 1215次阅读
    对话|<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对磁性元件提出的新需求

    AI 服务器备用电源:高效、可靠与智能的未来保障

    电子发烧友网综合报道 随着人工智能技术的飞速发展,AI 服务器已成为数据中心的核心引擎。然而,算力需求的指数级增长也带来了前所未有的电源挑战。在 AI
    的头像 发表于 10-09 02:38 5422次阅读

    德州仪器方案 | 使用热插拔控制应对48V AI服务器的保护挑战

    新兴的 48V AI 服务器在峰值和稳定状态下都需要更大的功率。在使用热插拔控制和并联 MOSFET 设计前端保护时,高功耗以及快速和瞬态动态特性带来了挑战
    的头像 发表于 07-05 10:39 3609次阅读
    德州仪器方案 | 使用热插拔控制<b class='flag-5'>器</b>应对48V <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>的保护<b class='flag-5'>挑战</b>

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026年AI硬件确定的增量,英伟达超级芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临
    的头像 发表于 06-24 10:07 1377次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源技术研讨会部分演讲嘉宾确认

    AI 服务器电源如何迭代升级?

    AI 算力需求增长的今天,AI 服务器电源正陷入 “性能瓶颈与国产替代并行、场景适配与技术创新交织” 的双重挑战。 由Big-Bit商务网、广东省磁性元器件行业协会主办的2025中国
    的头像 发表于 06-23 14:51 1658次阅读

    总功率超198kW,AI服务器电源对元器件提出了哪些要求?

    芯片GB200功率到2700W,是传统服务器电源的5-7倍,但其面临挑战同样不小。 超高功率需求与空间限制。 AI服务器(如搭载英伟达Bl
    的头像 发表于 06-17 10:36 1497次阅读
    总功率超198kW,<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对元器件提出了哪些要求?

    RAKsmart服务器如何赋能AI开发与部署

    AI开发与部署的复杂不仅体现在算法设计层面,更依赖于底层基础设施的支撑能力。RAKsmart服务器凭借其高性能硬件架构、灵活的资源调度能力以及面向AI场景的深度优化,正在成为企业突破
    的头像 发表于 04-30 09:22 932次阅读