电子发烧友网报道(文/莫婷婷)全球终端市场在经历了高峰之后,在2022年、2023年出现明显的终端市场下滑。进入2024年,全球终端市场又迎来了小幅反弹,AI技术的加持是市场反弹的动力之一。毫不夸张地说,是AI重新点燃了终端市场。
2023年被认为是AI终端的元年,那么进入2024年,AI终端市场会迎来哪些发展机会,上游的芯片环节,AI芯片有哪些最新解决方案。
AI终端成为交互入口,首款AI PC个人智能体已经面世
为什么AI算力会转移到终端侧?IDC中国及全球副总裁王吉平提到了四大方面的原因。
一是芯片厂商技术革命,未来是在混合算力的基础上,端侧算力未来会快速提升。二是模型正在不断演变,例如混合专家模型(MoE)正受到业内人士的关注。三是人们越来越关注安全性,端侧模型对于个人安全隐私,以及端之间互联互通的安全性有很好地保护。四是大模型开始垂直化整合,垂直领域端+小模型的需求也在提升,王吉平认为小模型和小终端之间也可以非常完美地匹配。
目前,在终端产品中,PC、智能家居、车载设备、智能手机、智能手表、耳机,甚至是AR/VR等设备都能得到AI技术的加持。
可以预测到,随着场景化发展,不同场景下的终端分工更加细致和专业,AI技术将加速终端未来十年新一轮的融合。
目前,手机厂商已经打造了各自的AI大模型,将其赋能至智能手机中,例如华为小艺语音助手用到了盘古大模型,小米小爱同学用的是小米AI大模型MiLM-6B等等。
在AI PC方面,已经从普通的AI PC走向了AI PC智能体,例如联想于4月18日发布的业内首款AI PC个人智能体——联想小天,具备文生图的功能,还能实现图像训练和深度编辑。
在AI机器人方面,传音旗下创新科技品牌TECNO在MWC24上,展示了公司首款AI增强型仿生四足机器人Dynamic 1,能够用于智能助手、教育培训等场景。
AI终端在发展过程中,大模型(LLM)向智能体(Agent)转变,最终形成一个完整的闭环。那么,未来AI终端会朝着哪些方向发展呢?业内人士普遍认为,未来AI终端将成为个人AI助理,IDC认为将具备以下五大特征:
一是成为第一交互入口。此外,当国内的推理芯片搭载在各个终端后,会形成国内生态的智能体应用于各个行业中。二是终端将标配本地混合AI算力,例如CPU/NPU/GPU等;随之,形成个人终端和个人边缘协同计算结构。三是终端内嵌个人大模型,形成个性化本地知识库。四是必须会有个人数据和隐私安全保护。五是有一个连接开放的AI应用生态,同时它要开发API接口。
AI芯片进入新的竞争阶段,英伟达、英特尔、高通攻克推理性能
在技术底层,AI终端的发展离不开AI芯片。随着AI大模型在终端进行规模化扩张,部署端侧算力显得尤为重要。英特尔CEO帕特·基辛格曾表示在人工智能领域,推理技术变得越来越重要,甚至比训练还更加重要。
IDC中国及全球副总裁王吉平也预测了大语言模型端侧芯片的发展趋势,他认为XPU模式会推动端侧模型推理能力明显提升。
目前,在AI芯片领域,英伟达、英特尔、AMD等是国际主流玩家。在近两年,国内的推理芯片厂商也逐渐进入业内视野中,例如阿里平头哥、寒武纪、燧原科技、云天励飞等,随着技术的迭代,上述国产芯片厂商的AI芯片性能也在不断提升。
AI芯片领域的竞争进入了新的阶段。目前,英特尔、英伟达、高通都推出了各自面向AI推理的芯片。
就在美国时间4月9日,英特尔发布了新一代AI芯片Gaudi 3,可对标英伟达H100。Gaudi 3采用5nm工艺制造,具有64个第五代张量处理核心、8个矩阵计算引擎,24个200 Gbps以太网 RDMA NIC,以太网的通用标准能连接数万个加速器,最高 16 条 PCIe 5.0 总线。与Gaudi 2相比,Gaudi 3的FP8吞吐量达到1835 TFLOPS,BF16性能提升四倍,网络带宽提升两倍,内存带宽提升1.5倍。
英伟达H100芯片是在2023年发布的产品,采用4nm工艺,搭载了最新Hopper架构,集成Transformer引擎、第四代TensorCore、第四代张量内核等技术。支持PCle Gen5和利用HBM3,忆体频宽达到3TB/s,FP8 算力与A100相比提升了3倍,达4000TFLOPS。
在今年3月的英伟达GTC人工智能大会,英伟达还发布了Blackwell B200 GPU,有着2080亿个晶体管,H100的FP4性能为4 petaflops,而B200 能提供高达20 petaflops FP4的算力。两个B200与单个英伟达Grace CPU相连,打造出GB200 Grace Blackwell超级芯片。
在AI芯片新的竞争阶段,厂商都更加重视芯片的推理能力,从英特尔和英伟达的新品正好说明了这一点。英特尔Gaudi系列面向AI应用场景,其推理能力也在不断提升,Gaudi 3的模型训练速度提升40%,推理速度则提升50%。
英伟达介绍,H100采用了新的Transformer Engine专门用于加速Transformer 模型的训练和推理,在进行语言模型的训练和推理时,训练速度是A100的9倍,推理速度是A100的30倍。Blackwell GPU更是能提供30倍的推理性能,AI训练和大模型实时推理的规模扩展到10万亿参数。
高通也在2023年10月发布骁龙 X Elite,这是一款面向 Windows 11 PC 的旗舰 PC 芯片,集成了Oryon CPU、Adreno GPU、Hexagon NPU,支持在端侧运行超过 130 亿参数的生成式 AI 模型。
在当时的发布会上,高通透露搭载骁龙 X Elite 芯片的笔记本电脑在今年中期面世。近期已有消息显示,联想 YOGA Slim 7 14 2024 骁龙版,以及一款命名为ThinkPad T14s Gen 6 骁龙版的笔记本或将搭载高通骁龙X Elite 芯片。高通骁龙X Elite 芯片会给联想AI PC带来哪些AI性能,值得期待。
而英伟达的H100已经应用在其超级计算机Eos中,总共搭载了4608个H100 GPU,还有1,152个英特尔至强Platinum 8480C处理器。Eos被认为是英伟达速度最快的人工智能超级计算机,可用于人工智能和高性能计算工作负载。
每一代AI芯片的推出,都有它各自的应用定位。从终端市场来看,AI技术已经从手机、PC渗透进更多终端产品,未来会走向高性能PC、工作站等,不管是面向TO C,还是TO B的行业场景(服务业、制造业等),所需要的算力将随着应用需求逐步提升,也会提高推理芯片的要求。未来推理芯片在AI终端会迎来怎么样的发展,又会提升哪些应用体验,值得期待。
2023年被认为是AI终端的元年,那么进入2024年,AI终端市场会迎来哪些发展机会,上游的芯片环节,AI芯片有哪些最新解决方案。
AI终端成为交互入口,首款AI PC个人智能体已经面世
为什么AI算力会转移到终端侧?IDC中国及全球副总裁王吉平提到了四大方面的原因。
一是芯片厂商技术革命,未来是在混合算力的基础上,端侧算力未来会快速提升。二是模型正在不断演变,例如混合专家模型(MoE)正受到业内人士的关注。三是人们越来越关注安全性,端侧模型对于个人安全隐私,以及端之间互联互通的安全性有很好地保护。四是大模型开始垂直化整合,垂直领域端+小模型的需求也在提升,王吉平认为小模型和小终端之间也可以非常完美地匹配。
目前,在终端产品中,PC、智能家居、车载设备、智能手机、智能手表、耳机,甚至是AR/VR等设备都能得到AI技术的加持。
可以预测到,随着场景化发展,不同场景下的终端分工更加细致和专业,AI技术将加速终端未来十年新一轮的融合。
目前,手机厂商已经打造了各自的AI大模型,将其赋能至智能手机中,例如华为小艺语音助手用到了盘古大模型,小米小爱同学用的是小米AI大模型MiLM-6B等等。
在AI PC方面,已经从普通的AI PC走向了AI PC智能体,例如联想于4月18日发布的业内首款AI PC个人智能体——联想小天,具备文生图的功能,还能实现图像训练和深度编辑。

图源:联想
在AI机器人方面,传音旗下创新科技品牌TECNO在MWC24上,展示了公司首款AI增强型仿生四足机器人Dynamic 1,能够用于智能助手、教育培训等场景。
AI终端在发展过程中,大模型(LLM)向智能体(Agent)转变,最终形成一个完整的闭环。那么,未来AI终端会朝着哪些方向发展呢?业内人士普遍认为,未来AI终端将成为个人AI助理,IDC认为将具备以下五大特征:
一是成为第一交互入口。此外,当国内的推理芯片搭载在各个终端后,会形成国内生态的智能体应用于各个行业中。二是终端将标配本地混合AI算力,例如CPU/NPU/GPU等;随之,形成个人终端和个人边缘协同计算结构。三是终端内嵌个人大模型,形成个性化本地知识库。四是必须会有个人数据和隐私安全保护。五是有一个连接开放的AI应用生态,同时它要开发API接口。
AI芯片进入新的竞争阶段,英伟达、英特尔、高通攻克推理性能
在技术底层,AI终端的发展离不开AI芯片。随着AI大模型在终端进行规模化扩张,部署端侧算力显得尤为重要。英特尔CEO帕特·基辛格曾表示在人工智能领域,推理技术变得越来越重要,甚至比训练还更加重要。
IDC中国及全球副总裁王吉平也预测了大语言模型端侧芯片的发展趋势,他认为XPU模式会推动端侧模型推理能力明显提升。

图源:电子发烧友网摄
目前,在AI芯片领域,英伟达、英特尔、AMD等是国际主流玩家。在近两年,国内的推理芯片厂商也逐渐进入业内视野中,例如阿里平头哥、寒武纪、燧原科技、云天励飞等,随着技术的迭代,上述国产芯片厂商的AI芯片性能也在不断提升。
AI芯片领域的竞争进入了新的阶段。目前,英特尔、英伟达、高通都推出了各自面向AI推理的芯片。
就在美国时间4月9日,英特尔发布了新一代AI芯片Gaudi 3,可对标英伟达H100。Gaudi 3采用5nm工艺制造,具有64个第五代张量处理核心、8个矩阵计算引擎,24个200 Gbps以太网 RDMA NIC,以太网的通用标准能连接数万个加速器,最高 16 条 PCIe 5.0 总线。与Gaudi 2相比,Gaudi 3的FP8吞吐量达到1835 TFLOPS,BF16性能提升四倍,网络带宽提升两倍,内存带宽提升1.5倍。
英伟达H100芯片是在2023年发布的产品,采用4nm工艺,搭载了最新Hopper架构,集成Transformer引擎、第四代TensorCore、第四代张量内核等技术。支持PCle Gen5和利用HBM3,忆体频宽达到3TB/s,FP8 算力与A100相比提升了3倍,达4000TFLOPS。
在今年3月的英伟达GTC人工智能大会,英伟达还发布了Blackwell B200 GPU,有着2080亿个晶体管,H100的FP4性能为4 petaflops,而B200 能提供高达20 petaflops FP4的算力。两个B200与单个英伟达Grace CPU相连,打造出GB200 Grace Blackwell超级芯片。
在AI芯片新的竞争阶段,厂商都更加重视芯片的推理能力,从英特尔和英伟达的新品正好说明了这一点。英特尔Gaudi系列面向AI应用场景,其推理能力也在不断提升,Gaudi 3的模型训练速度提升40%,推理速度则提升50%。
英伟达介绍,H100采用了新的Transformer Engine专门用于加速Transformer 模型的训练和推理,在进行语言模型的训练和推理时,训练速度是A100的9倍,推理速度是A100的30倍。Blackwell GPU更是能提供30倍的推理性能,AI训练和大模型实时推理的规模扩展到10万亿参数。
高通也在2023年10月发布骁龙 X Elite,这是一款面向 Windows 11 PC 的旗舰 PC 芯片,集成了Oryon CPU、Adreno GPU、Hexagon NPU,支持在端侧运行超过 130 亿参数的生成式 AI 模型。
在当时的发布会上,高通透露搭载骁龙 X Elite 芯片的笔记本电脑在今年中期面世。近期已有消息显示,联想 YOGA Slim 7 14 2024 骁龙版,以及一款命名为ThinkPad T14s Gen 6 骁龙版的笔记本或将搭载高通骁龙X Elite 芯片。高通骁龙X Elite 芯片会给联想AI PC带来哪些AI性能,值得期待。
而英伟达的H100已经应用在其超级计算机Eos中,总共搭载了4608个H100 GPU,还有1,152个英特尔至强Platinum 8480C处理器。Eos被认为是英伟达速度最快的人工智能超级计算机,可用于人工智能和高性能计算工作负载。
每一代AI芯片的推出,都有它各自的应用定位。从终端市场来看,AI技术已经从手机、PC渗透进更多终端产品,未来会走向高性能PC、工作站等,不管是面向TO C,还是TO B的行业场景(服务业、制造业等),所需要的算力将随着应用需求逐步提升,也会提高推理芯片的要求。未来推理芯片在AI终端会迎来怎么样的发展,又会提升哪些应用体验,值得期待。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
89文章
38091浏览量
296582 -
AI芯片
+关注
关注
17文章
2063浏览量
36566 -
算力
+关注
关注
2文章
1385浏览量
16564 -
AI PC
+关注
关注
0文章
140浏览量
691
发布评论请先 登录
相关推荐
热点推荐
MWC Doha 2025|美格智能全新发布60 Tops AI算力、支持Linux系统的SNM982高算力AI模组
QCS8550平台提升25%以上,在模组性能与开放性方面同步提升,现已进入全面量产阶段。全面提升:60Tops
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升算力还是智力
持续发展体现在:
1、收益递减
大模型的基础的需要极大的算力,这首先源于昂贵的高性能AI芯片,然后是宝贵的电力、水等与环境相关的资源。
收益递减体现在:
①模型大小
②训练数据量
③训
发表于 09-14 14:04
AI 芯片浪潮下,职场晋升新契机?
、新架构不断涌现。能够在工作中提出创新性的解决方案,推动 AI 芯片性能、功耗、成本等关键指标的优化,将极大提升在职称评审中的竞争力。例如,在芯片
发表于 08-19 08:58
2025端侧AI芯片爆发:存算一体、非Transformer架构谁主浮沉?边缘计算如何选型?
各位技术大牛好!最近WAIC 2025上端侧AI芯片密集发布,彻底打破传统算力困局。各位大佬在实际项目中都是如何选型的呢?
发表于 07-28 14:40
边缘计算时代,科通技术以端AI方案重构算力分配格局
随着AI大模型技术的快速发展,其在终端设备中的应用正成为行业突破的关键方向。深圳市科通技术股份有限公司(以下简称“科通技术”)凭借“DeepSeek+AI
端侧 AI 芯片:终端智能落地的核心引擎
电子发烧友网报道(文 / 李弯弯)端侧 AI 芯片,是专门为在诸如智能手机、IoT 设备、自动驾驶汽车等终端设备上,高效运行人工智能算法而设
DeepSeek推动AI算力需求:800G光模块的关键作用
数据传输速率,减少带宽瓶颈,成为数据中心和AI集群架构优化的重点。光模块速率的跃升不仅提升了传输效率,也为大规模并行计算任务提供了必要的带宽保障。
800G光模块如何解决DeepSeek大规模算
发表于 03-25 12:00
广和通发布Fibocom AI Stack,助力客户快速实现跨平台跨系统的端侧AI部署
模型及行业端侧模型,基于不同等级算力的芯片平台或模组,Fibocom AI Stack可将Ten
发表于 01-08 11:38
•465次阅读

AI终端时代:端侧算力快速提升,AI芯片竞争进入新的阶段
评论