电子发烧友网报道(文/莫婷婷)随着生成式AI应用的爆发式增长,数据中心对高效、低成本、低功耗AI推理能力的需求急剧上升。高通凭借其在移动计算和通信领域的技术积累,正试图通过差异化战略,在价值数千亿美元的数据中心市场中抢占一席之地。
就在10月28日,高通面向数据中心连发两款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理优化解决方案。这一举措不仅标志着高通在AI基础设施领域的拓展,也被业内视为其对英伟达在AI数据中心市场发起挑战的关键一步。
支持768 GB LPDDR,高通AI芯片性能、架构与能效全面突破
此次发布的AI200和AI250基于高通的Hexagon神经处理单元(NPU)技术,并针对大型语言模型(LLM)、多模态模型(LMM)及实时AI推理任务进行了深度优化,可实现快速数据中心生成式 AI 推理,预计分别将于2026年和2027年上市。
高通介绍,AI200 是机架级AI推理解决方案,主打高内存带宽与低总拥有成本(TCO),旨在为大型语言和多模态模型(LLM、LMM)、推理和其他 AI 工作负载提供较低的TCO和优化的性能。
该芯片单卡支持高达768GB的LPDDR内存,远超当前市场上主流竞品。作为对比,英伟达H100 GPU单卡最大显存为80GB HBM3,GB300每个GPU配备288GBHBM3e内存,不到AI200的一半;AMD MI300X也仅提供192GB HBM3内存。这意味着在处理超大规模模型时,AI200无需频繁进行数据交换或模型切分,显著提升了推理效率。
另一个值得关注的数据是,相较于HBM,LPDDR在制造成本上带来的优势。目前来看HBM的生产成本大约是LPDDR的2-3倍,这使得AI200能够在保持高性能的同时,大幅降低单位算力的成本支出,适合需要长期运行、高吞吐量的云服务提供商和企业客户。
在AI200是对现有市场精准打击的同时,高通AI250则是一次颠覆性的技术创新。
AI250 引入了基于近内存计算的创新内存架构,这一设计提供超过 10 倍的有效内存带宽和更低的功耗,对于AI推理这类高度依赖数据流动的任务而言,这意味着更低的延迟和更高的能效比。此外,AI250支持分解式AI推理,实现更灵活的资源调度与利用率优化,同时满足客户的性能和成本要求。
基于AI200 和 AI250 芯片的机架解决方案均具有直接液体冷却以提高热效率、用于纵向扩展的 PCIe、用于横向扩展的以太网,支持160kW机架级功耗管理,满足现代数据中心对可扩展性与热管理的严苛要求。此外,二者均支持机密计算,确保敏感AI工作负载在执行过程中的数据安全。
高通在官方通告中,特别指出两款产品都支持较低的总体拥有成本(TCO)。TCO指的是在设备采购、运维等整个生命周期需要投入的成本,已经成为客户决策的关键指标之一,直面初创企业或新兴市场等对预算敏感型客户群体。
此外,AI数据中心产业对绿色AI和可持续算力的需求。在TCO中,电力成本占一半左右,已成为云服务商的支出大项。而高通强调“每瓦每美元”的性能指标,正好直击产业痛点。
“借助高通 AI200 和 AI250,我们正在重新定义机架级 AI 推理的可能性。这些创新的新型人工智能基础设施解决方案使客户能够以前所未有的总体拥有成本部署生成式人工智能,同时保持现代数据中心所需的灵活性和安全性”,高通技术公司边缘解决方案和数据中心技术规划高级副总裁兼总经理 Durga Malladi表示。
高通的战略升级:以AI推理为核心向数据中心扩张
长期以来,高通被视为“智能手机芯片之王”,骁龙系列处理器几乎定义了安卓旗舰手机的标准。然而,随着智能手机市场趋于饱和,高通开始加速多元化布局,先后进入PC、汽车、工业等领域,就在今年2月,高通正式推出“跃龙”品牌,面向工业场景。如今,AI数据中心成为其下一个战略高地。
从高通的通告中可以看到,面向AI数据中心,高通已经有着清晰的技术路线图与商业化落地计划。
高通已明确宣布,将每年推进一次数据中心AI芯片路线图更新,持续迭代性能与能效。AI200计划于2026年上市,AI250将于2027年量产,形成稳定的产品节奏。
在商业化进展方面,今年5月,高通宣布与沙特阿拉伯的Humain公司合作,为其新建的区域性AI数据中心提供AI推理芯片,该项目预计将部署最多可使用200兆瓦电力的系统,相当于一座中等城市全年数据中心的用电总量,能够支撑数十万台服务器的AI运算能力。此次合作成为高通在国家级AI基建项目中获得大规模订单,具有象征意义。
在开发者生态方面,为了打破生态的壁垒,高通在软件层面也下足功夫。高通表示AI200和AI250配备了完整的高通AI软件栈,兼容主流AI框架,并支持一键式模型部署。开发者无需重写代码即可将已训练好的模型迁移至高通平台,极大降低了采用门槛专为无摩擦采用和快速创新而设计。
高通AI芯片的发布,被视为其正式向英伟达所在的AI数据中心领域的统治地位发起挑战的标志性开端。英伟达凭借其强大的CUDA生态、领先的GPU架构,且在AI训练领域的先发优势,在数据中心市场占据了超过90%的绝对主导地位,已成为全球主流云服务商和AI企业构建大模型训练平台的“标配”。
而生成式AI从训练阶段大规模转向部署和推理应用,云天励飞副总裁罗忆预计,国产大模型推理算力需求将在2026年超越训练需求。因此AI推理芯片正逐渐成为AI领域的关键,这为后来者提供了错位竞争的战略窗口,而高通正是抓住了这一关键转折点。
与英伟达以通用GPU为核心、兼顾训练与推理的路线不同,高通选择了专注AI推理赛道的差异化战略,并非在英伟达最擅长的训练战场上正面硬刚,而是精准切入更具规模潜力的推理环节,基于高通在高吞吐、低延迟等技术的优势,通过专用架构、能效优化和成本控制,构建起一条竞争路径。
未来,在AI数据中心这片充满机遇与挑战的市场中,高通会有哪些表现,AI200与AI250芯片能否在2026年如期量产并顺利导入主流企业中,又能否在软件生态上赢得开发者的广泛支持,都将成为关键。
就在10月28日,高通面向数据中心连发两款AI芯片,AI200 和 AI250 芯片,打造下一代 AI 推理优化解决方案。这一举措不仅标志着高通在AI基础设施领域的拓展,也被业内视为其对英伟达在AI数据中心市场发起挑战的关键一步。

支持768 GB LPDDR,高通AI芯片性能、架构与能效全面突破
此次发布的AI200和AI250基于高通的Hexagon神经处理单元(NPU)技术,并针对大型语言模型(LLM)、多模态模型(LMM)及实时AI推理任务进行了深度优化,可实现快速数据中心生成式 AI 推理,预计分别将于2026年和2027年上市。
高通介绍,AI200 是机架级AI推理解决方案,主打高内存带宽与低总拥有成本(TCO),旨在为大型语言和多模态模型(LLM、LMM)、推理和其他 AI 工作负载提供较低的TCO和优化的性能。
该芯片单卡支持高达768GB的LPDDR内存,远超当前市场上主流竞品。作为对比,英伟达H100 GPU单卡最大显存为80GB HBM3,GB300每个GPU配备288GBHBM3e内存,不到AI200的一半;AMD MI300X也仅提供192GB HBM3内存。这意味着在处理超大规模模型时,AI200无需频繁进行数据交换或模型切分,显著提升了推理效率。
另一个值得关注的数据是,相较于HBM,LPDDR在制造成本上带来的优势。目前来看HBM的生产成本大约是LPDDR的2-3倍,这使得AI200能够在保持高性能的同时,大幅降低单位算力的成本支出,适合需要长期运行、高吞吐量的云服务提供商和企业客户。
在AI200是对现有市场精准打击的同时,高通AI250则是一次颠覆性的技术创新。
AI250 引入了基于近内存计算的创新内存架构,这一设计提供超过 10 倍的有效内存带宽和更低的功耗,对于AI推理这类高度依赖数据流动的任务而言,这意味着更低的延迟和更高的能效比。此外,AI250支持分解式AI推理,实现更灵活的资源调度与利用率优化,同时满足客户的性能和成本要求。
基于AI200 和 AI250 芯片的机架解决方案均具有直接液体冷却以提高热效率、用于纵向扩展的 PCIe、用于横向扩展的以太网,支持160kW机架级功耗管理,满足现代数据中心对可扩展性与热管理的严苛要求。此外,二者均支持机密计算,确保敏感AI工作负载在执行过程中的数据安全。
高通在官方通告中,特别指出两款产品都支持较低的总体拥有成本(TCO)。TCO指的是在设备采购、运维等整个生命周期需要投入的成本,已经成为客户决策的关键指标之一,直面初创企业或新兴市场等对预算敏感型客户群体。
此外,AI数据中心产业对绿色AI和可持续算力的需求。在TCO中,电力成本占一半左右,已成为云服务商的支出大项。而高通强调“每瓦每美元”的性能指标,正好直击产业痛点。
“借助高通 AI200 和 AI250,我们正在重新定义机架级 AI 推理的可能性。这些创新的新型人工智能基础设施解决方案使客户能够以前所未有的总体拥有成本部署生成式人工智能,同时保持现代数据中心所需的灵活性和安全性”,高通技术公司边缘解决方案和数据中心技术规划高级副总裁兼总经理 Durga Malladi表示。
高通的战略升级:以AI推理为核心向数据中心扩张
长期以来,高通被视为“智能手机芯片之王”,骁龙系列处理器几乎定义了安卓旗舰手机的标准。然而,随着智能手机市场趋于饱和,高通开始加速多元化布局,先后进入PC、汽车、工业等领域,就在今年2月,高通正式推出“跃龙”品牌,面向工业场景。如今,AI数据中心成为其下一个战略高地。
从高通的通告中可以看到,面向AI数据中心,高通已经有着清晰的技术路线图与商业化落地计划。
高通已明确宣布,将每年推进一次数据中心AI芯片路线图更新,持续迭代性能与能效。AI200计划于2026年上市,AI250将于2027年量产,形成稳定的产品节奏。
在商业化进展方面,今年5月,高通宣布与沙特阿拉伯的Humain公司合作,为其新建的区域性AI数据中心提供AI推理芯片,该项目预计将部署最多可使用200兆瓦电力的系统,相当于一座中等城市全年数据中心的用电总量,能够支撑数十万台服务器的AI运算能力。此次合作成为高通在国家级AI基建项目中获得大规模订单,具有象征意义。
在开发者生态方面,为了打破生态的壁垒,高通在软件层面也下足功夫。高通表示AI200和AI250配备了完整的高通AI软件栈,兼容主流AI框架,并支持一键式模型部署。开发者无需重写代码即可将已训练好的模型迁移至高通平台,极大降低了采用门槛专为无摩擦采用和快速创新而设计。
高通AI芯片的发布,被视为其正式向英伟达所在的AI数据中心领域的统治地位发起挑战的标志性开端。英伟达凭借其强大的CUDA生态、领先的GPU架构,且在AI训练领域的先发优势,在数据中心市场占据了超过90%的绝对主导地位,已成为全球主流云服务商和AI企业构建大模型训练平台的“标配”。
而生成式AI从训练阶段大规模转向部署和推理应用,云天励飞副总裁罗忆预计,国产大模型推理算力需求将在2026年超越训练需求。因此AI推理芯片正逐渐成为AI领域的关键,这为后来者提供了错位竞争的战略窗口,而高通正是抓住了这一关键转折点。
与英伟达以通用GPU为核心、兼顾训练与推理的路线不同,高通选择了专注AI推理赛道的差异化战略,并非在英伟达最擅长的训练战场上正面硬刚,而是精准切入更具规模潜力的推理环节,基于高通在高吞吐、低延迟等技术的优势,通过专用架构、能效优化和成本控制,构建起一条竞争路径。
未来,在AI数据中心这片充满机遇与挑战的市场中,高通会有哪些表现,AI200与AI250芯片能否在2026年如期量产并顺利导入主流企业中,又能否在软件生态上赢得开发者的广泛支持,都将成为关键。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
高通
+关注
关注
78文章
7688浏览量
198780
发布评论请先 登录
相关推荐
热点推荐
数据中心缺电,英伟达又有新动作!
电子发烧友网报道(文/李弯弯)近日,英伟达宣布将举办一场私人峰会,邀请聚焦数据中心电力问题的初创公司参会,共同应对可能阻碍人工智能发展的电力难题。当下,大模型训练与推理对算力的需求呈指
堪称史上最强推理芯片!英伟达发布 Rubin CPX,实现50倍ROI
电子发烧友网报道(文/梁浩斌)近日,英伟达在AI infra峰会上发布了专为大规模上下文推理设计的全新GPU系列Rubin CPX,性能堪称
AI推理需求井喷!英伟达Q1营收大涨,H20禁售难挡增长步伐
报告,在全球加大AI基础设施的浪潮下,英伟达第一季度总体营收达到440.6亿美元,较去年同期增长69%,高于市场预期的431亿美元;净利润187.75亿美元,同比去年增长26%。业绩公布后,英
鑫澈导热与屏蔽方案助力AI数据中心高效散热
随着AI数据中心持续扩张,高功率密度AI芯片带来过量热负荷与电磁干扰问题,散热与电磁屏蔽已成为影响系统稳定与能效的核心
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片
建立的基础:
①算力支柱②数据支柱③计算支柱
1)算力
与AI算力有关的因素:
①晶体管数量②晶体管速度③芯片架构④芯片面积⑤制造工艺⑥芯片
发表于 09-18 15:31
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片的需求和挑战
景嘉微电子、海光信息技术、上海复旦微电子、上海壁仞科技、上海燧原科技、上海天数智芯半导体、墨芯人工智能、沐曦集成电路等。
在介绍完这些云端数据中心的AI芯片之后,还为我们介绍了边缘AI
发表于 09-12 16:07
睿海光电以高效交付与广泛兼容助力AI数据中心800G光模块升级
提供“数据高速通道”。
低延迟与高可靠:通过信号完整性设计与超低功耗控制,减少数据中心能耗的同时,保障大规模AI训练的稳定性。
前瞻布局:1.6T光模块研发已启动,为下一代1.6T
发表于 08-13 19:01
华为面向拉美地区发布全新星河AI数据中心网络方案
在华为数据通信创新峰会2025拉美站期间,以“星河AI数据中心网络,赋AI时代新动能”为主题的分论坛上,华为面向拉美地区发布全新升级的星河
安森美携手英伟达推动下一代AI数据中心发展
安森美(onsemi,美国纳斯达克股票代号:ON)宣布与英伟达(NVIDIA)合作,共同推动向800V直流(VDC)供电架构转型。这一变革性解决方案将推动下一代人工智能(AI)数据中心
继HBM之后,英伟达带火又一AI内存模组!颠覆AI服务器与PC
Attached Memory Module,即小型化压缩附加内存模组,是英伟达主导开发的一种新型内存模块,是适用于数据中心
适用于数据中心和AI时代的800G网络
数据中心依赖数千甚至上万个GPU集群进行高性能计算,对带宽、延迟和数据交换效率提出极高要求。
AI云:以生成式AI为核心的云平台,为多租户环境提供
发表于 03-25 17:35
Cadence颠覆AI数据中心设计
日前举办的英伟达 GTC 2025 开发者大会汇聚了众多行业精英,共同探讨人工智能的未来。而人工智能正在重塑全球数据中心的格局。据预测,未来将有 1 万亿美元用于 AI 驱动的
英伟达GTC25亮点:NVIDIA Blackwell Ultra 开启 AI 推理新时代
英伟达GTC25亮点:NVIDIA Blackwell Ultra 开启 AI 推理新时代

高通挑战英伟达!发布768GB内存AI推理芯片,“出征”AI数据中心
评论