0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

预计2024年全球AI服务器将达160万台,AI PC逐步普及

微云疏影 来源:综合整理 作者:综合整理 2024-01-18 10:29 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

1 月 18 日,据TradeSource Consulting (TSRC)发布的最新研究预测,到2024年为止,全球AI Server(包括AI Training与AI Inference)预计将超过160万台,较上一年度增长约40%。

该公司进一步指出,自2025年起,AI PC将会逐渐普及。他们预期,到了2024年下半段,将会有厂商推出计算能力达40TOPS的AI PC,同时,英特尔计划在2024年年末之前推出Lunar Lake处理器,这将有助于推动AI PC的全面拓展。

TSRC分析认为,AI PC商业化主要受到两大因素驱动。首先,终端应用的需求起着重要作用。微软将AI功能融入Windows和Office等知名软件中,促使AI PC逐渐发展壮大。其次,英特尔借由推动CPU+GPU+NPU架构,刺激了各类终端AI应用的丰富性。

在其他芯片领域,高通于去年年底推出了Snapdragon X Elite平台,具有45TOPS的计算能力,能够满足AI PC的需求。此外,AMD的Ryzen 8000系列(Strix Point)和英特尔的Meteor Lake也都被广泛看好,前者预计拥有34TOPS的算力,能实际应用于AI PC。另一方面,AMD的Lunar Lake预计将于明年推出,有望超过40TOPS。

需要特别提及的是,这场围绕AI PC展开的争夺战,不仅关乎X86及Arm两大CPU阵营在Edge AI市场的位置,还涉及高通、英特尔以及AMD的未来发展。

同时,如戴尔、惠普、联想、华硕、宏碁这些OEM巨头预计将在2024年逐步推出现阶段搭载高通CPU的新款PC机型,这无疑将给X86阵营带来新的压力。

就内存规格而言,根据微软设定的AI PC标准,建议至少配置16GB内存。长远来看,TSRC预判AI PC将可能促进PC DRAM需求增长。然而,受消费者换机周期影响,AI PC对PC DRAM位元需求可能会进一步提高。

此外,为了满足NPU40TOPS所需的CPU,微软制定了三种选择方案,它们分别使用LPDD5x以便提升传输速度。目前的主流选择通常是DDR SO-DIMM模组,但由于DDR5的传输速率(4800-5600Mbps)相对较低,无法满足AI PC庞大的数据处理需求。相比之下,LPDDR5x的传输速率更佳,能够提供7500-8533Mbps的高速传输,从而更好地支持AI PC接收并处理大量的语言指令。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 微软
    +关注

    关注

    4

    文章

    6752

    浏览量

    108076
  • 英特尔
    +关注

    关注

    61

    文章

    10320

    浏览量

    181068
  • PC
    PC
    +关注

    关注

    9

    文章

    2168

    浏览量

    159743
  • AI
    AI
    +关注

    关注

    91

    文章

    41060

    浏览量

    302569
  • AI PC
    +关注

    关注

    0

    文章

    142

    浏览量

    745
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    普通服务器电源与AI服务器电源的区别(上)

    引言服务器是数据中心的核心设备,其稳定运行依赖可靠的电源供应。随着AI技术的飞速发展,AI服务器大量涌现,与普通服务器在应用场景等方面存在显
    的头像 发表于 01-12 09:31 1401次阅读
    普通<b class='flag-5'>服务器</b>电源与<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源的区别(上)

    罗姆强势入局AI服务器800VDC电源方案 原创

    电子发烧友网报道(文 / 黄晶晶)随着 AI 技术发展, AI 服务器耗电量呈爆发式增长。 据行业权威机构预测,到 2030 AI 应用
    的头像 发表于 12-13 00:25 8676次阅读

    罗姆强势入局AI服务器800VDC电源方案

    电子发烧友网报道(文/黄晶晶)随着AI技术发展,AI 服务器耗电量呈爆发式增长。据行业权威机构预测,到2030AI应用
    的头像 发表于 12-12 15:42 5358次阅读
    罗姆强势入局<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>800VDC电源方案

    液冷服务器成为AI黄金赛道!华为力挺,两大国际芯片巨头下场

    2024以来,全球AI液冷服务器快速增长,中国液冷服务器市场进展如何?液冷技术出现哪些主流路线
    的头像 发表于 11-27 09:22 7498次阅读
    液冷<b class='flag-5'>服务器</b>成为<b class='flag-5'>AI</b>黄金赛道!华为力挺,两大国际芯片巨头下场

    AI赋能6G与卫星通信:开启智能天网新时代

    学习,AI可以智能识别和纠正信号错误。在2024欧洲卫星通信展上,展示的AI信号处理系统使卫星通信的误码率从0.01%降至0.0001%,相当于每1000
    发表于 10-11 16:01

    对话|AI服务器电源对磁性元件提出的新需求

    编者按: 自ChatGPT、DeepSeek等大型AI模型应用爆发以来,市场对AI服务器的需求激增,其配套电源的发展前景已成为行业共识。目前,I服务器电源企业的出货规模仍有限,
    的头像 发表于 10-11 14:55 1244次阅读
    对话|<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源对磁性元件提出的新需求

    睿海光电800G光模块助力全球AI基建升级

    利用率,节省部署成本25%。 值得一提的是,睿海光电通过广泛兼容的设计能力,仅2024即推动超过50家客户完成400G向800G的平滑升级,客户留存率98%。 五、睿海光电与您共创AI
    发表于 08-13 19:05

    加速AI未来,睿海光电800G OSFP光模块重构数据中心互联标准

    中心提供本地化服务 典型案例:2024Q4,某国际云服务商紧急扩容项目,睿海光电在5天内完成8000只800G OSFP DR8模块交付,助力客户提前2周完成项目上线。 三、成功案例
    发表于 08-13 16:38

    继HBM之后,英伟带火又一AI内存模组!颠覆AI服务器PC

    ,不仅将用于数据中心AI服务器,也将有望应用于PC。这一举措将对内存市场以及相关产业链产生深远影响。   SOCAMM   SOCAMM 全称为 Small Outline Compression
    的头像 发表于 07-27 07:50 5013次阅读

    AI PC爆发!2025出货量破亿,科技巨头引领产业变革

    的投入,将其视为未来科技竞争的核心战场。   市场研究机构Canalys预测,2025全球AI PC出货量超过1亿
    的头像 发表于 07-14 08:20 1w次阅读

    AI服务器电源技术研讨会部分演讲嘉宾确认

    AI服务器电源是2025-2026AI硬件确定的增量,英伟超级芯片GB200功率到2700W,是传统
    的头像 发表于 06-24 10:07 1393次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电源技术研讨会部分演讲嘉宾确认

    AI 服务器电源如何迭代升级?

    解决方案创新峰会分会场三:AI 服务器与电源技术创新研讨会将于2025 6月26日重磅开启,带着AI 服务器电源行业最真实的痛点清单与解决
    的头像 发表于 06-23 14:51 1690次阅读

    AI PC内存升级,这颗DDR5 PMIC一马当先

    电子发烧友网报道(文/黄晶晶)根据IDC预计AI PC的出货量将从当前的约5000,增长至2027
    的头像 发表于 05-29 09:11 8689次阅读
    <b class='flag-5'>AI</b> <b class='flag-5'>PC</b>内存升级,这颗DDR5 PMIC一马当先

    【「零基础开发AI Agent」阅读体验】+ 入门篇学习

    很高兴又有机会学习ai技术,这次试读的是「零基础开发AI Agent」,作者叶涛、管锴、张心雨。 大模型的普及是近三来的一件大事,物皆可
    发表于 05-02 09:26

    AI服务器硬件攻坚战,从时钟缓冲到电容,解决功耗、带宽、散热难题

    市场前景广阔,全球AI服务器预计2023市场规模达到1500亿−2000亿美元,复合年增长率
    的头像 发表于 04-28 01:09 5161次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>服务器</b>硬件攻坚战,从时钟缓冲到电容,解决功耗、带宽、散热难题