0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

人工智能中的处理器如何选择

安晟培半导体 来源:安晟培半导体 2023-09-05 10:58 次阅读

Q应对 AI 发展带来的计算挑战,什么样的处理器才是最佳选择?

为长期运行的计算密集型 AI 训练和大规模 AI 推理选择合适的 CPUGPU,本质上是要为您的应用选择适宜的计算解决方案。相比传统 x86 处理器成本高、能耗大,最新的 Ampere 云原生处理器助力打造高能效、高性能的 AI 推理应用,是其理想的替代方案,同时也是用于 AI 训练和大语言模型(LLM)推理 GPU 的高性价比之选。

从 20 世纪 50 年代的首个实例,到如今更为复杂的机器学习深度学习,甚至是生成式 AI 技术,高性能计算的需求始终是驱动 AI 计算发展的引擎,但模型的研究和训练往往需要投入高昂的成本。

目前,AI 技术已进入广泛应用的阶段,也出现了为 AI 推理超额配置计算的情况,这导致了高昂的成本支出(无论是硬件的单位成本,还是硬件运行的电力成本)。因此,为不同类型的 AI 工作负载采用 GPU-Only 虚拟机的做法,正在被能够大幅降低 AI 计算能耗的其他方案所替代。

与传统计算相比,运行 AI 需要更高的能耗。Bloomberg 对此进行了详细介绍:ChatGPT3 的参数量达到 1,750 亿,消耗了高达 1.287 千兆瓦时电量,相当于120 户美国家庭一年的耗电量。而类似 ChatGPT4 这样的新模型(预计参数量达到 1.7 万亿),将比 ChatGPT3 消耗更高的电量。

由于 AI 带来的能耗需求飙升,配置适度算力并减少所需的计算量是行业迫在眉睫的需求。云原生计算可助力降低运行成本,为配置硬件层面的适度算力奠定基础,满足当前和未来的计算需求,并降低能耗。

配置适度算力,满足计算和效率需求

云原生处理器是 CPU 架构的一项创新,是 AI 推理切实可靠的新选择,可替代高成本、高能耗的传统 x86 处理器。为 AI 应用程序配置适度算力,意味着您可以决定使用 CPU-Only,或是将云原生处理器的能效、可扩展性和计算性能与 GPU 的并行计算能力相结合。

如您希望拥有价值及能效更高的 AI 解决方案,告别传统方案导致的高成本和高能耗,可遵循以下 3 项简单准则:

保持灵活性,满足未来的计算需求

仅部署可满足应用程序性能需求的计算量,并尽可能多地使用通用处理器,而非专用处理器。此举有助于保持灵活性,以便满足未来的计算需求。

将 CPU-Only 的 AI 推理

从传统 x86 处理器转移至云原生处理器

相比传统的 x86 处理器,您可以借助 Ampere 云原生处理器带来的性能增益,在 CPU-Only 的情况下部署更广泛的 AI 工作负载。

GPU 与高能效的云原生处理器相结合

将 GPU 与高能效的云原生处理器相结合,以处理任务更繁重的 AI 训练或 LLM 推理工作负载。

若您想了解关于 Ampere 云原生处理器能效的更多精彩内容,请参阅指南:《云原生处理器助力数据中心效率劲升三倍》

仅部署您所需的计算量

在 AI 技术发展的研究和训练阶段,GPU 是所有 AI 应用(包括建模和推理)的首选处理器。虽然 GPU 推动了 AI 的发展,但对于许多 AI 应用而言,GPU 提供的算力已经过剩,尤其是针对离线(batch)推理或批量推理而言。

离线推理(Batch Inference)应用是算力要求较低的工作负载,不需要 GPU 的处理能力:为此而购买 GPU,犹如为了 5 公里的上班路程购置豪华跑车——这显然是大材小用。当把同样昂贵的 GPU 硬件分别用于运行大型和小型模型时,小模型可能仅用了 GPU 能力的一小部分。在这些情况下,CPU 可以代替 GPU,帮助您节省能耗、空间和成本。

在处理离线推理时,那些遵循默认做法而采用 GPU 方案的客户,至少错过了两种更合适的优化方案。

方案一

将 GPU 替换成适用于 AI 推理的高性能云原生处理器。

适用于 AI 推理的高性能云原生处理器。

方案二

将 GPU 与云原生处理器进行结合,以实现更高效的 LLM 推理和训练工作。

这正是我们所定义的"适度算力"。

以下模型呈现了如何为 AI 应用程序配置适度算力,同时也对比了性能、计算需求与所需功耗。根据模型,CPU-Only 解决方案是纯 AI 推理计算的优选项,而需要更高性能的应用程序,可以在 CPU 和 GPU 的组合上运行。

27418538-4b94-11ee-a25d-92fbcf53809c.jpg

当然,CPU 的选择也决定着您将付出的能耗以及获得的每瓦性能。而云原生处理器的性能优势和 Ampere 优化的 AI 软件,让 CPU 成为运行 AI 推理工作负载的理想之选。

将 AI 推理全部迁移至云原生处理器

欢迎加入云原生社区,这里汇聚了众多开发和设计人员。他们发现仅使用 Ampere 云原生处理器,也能够实现高效的 AI 推理。Ampere 优化的 AI 框架支持所有在最流行 AI 框架中开发的模型,包括 PyTorch、TensorFlow 和 ONNX Runtime,这种丰富的集成提供了无缝的体验,且无需修改 API 或进行额外的模型编码。

Ampere 优化的 AI 框架

相比传统的 x86 处理器,Ampere Altra 系列云原生处理器在 AI 推理方面拥有显著的性能优势,包括:

针对计算机视觉工作负载,性能最高可提升 4 倍*。

针对常见的NLP 工作负载,每瓦性能最高可提升 3 倍*。

Ampere AI 优化软件可提供更高效的 AI 推理。基于 Ampere 处理器的 AI 和 ML 推理工作负载,可通过 Ampere AI 解决方案的软件框架进行优化。通过使用 Ampere AI 解决方案,基于 CPU 的推理工作负载能够获得在成本、性能、可扩展性和能效等方面的优势,同时用户能够使用常见的标准 AI 框架进行编程。这套框架易于使用,无需转换代码,并且免费。

27584142-4b94-11ee-a25d-92fbcf53809c.jpg

借助 fp16 数据格式的独特支持,Ampere Altra 系列处理器可实现最佳的推理性能——与 fp32 数据格式相比,fp16 数据格式可提供高达 2 倍的额外*加速,并且精度损失微乎其微。

将 GPU 与高能效 CPU 结合,

开展 AI 训练和推理

在需要使用 GPU 的 AI 应用中,繁重的 AI 工作负载由 GPU 处理,而 CPU 则需要充当系统主机。在这样的应用中,因为 GPU 决定了系统性能,所以无论使用哪种 CPU,它们的性能始终相同。

CPU 之间的区别在于其整体效率。与传统 x86 CPU 相比,云原生处理器将为您带来高能效,帮助显著降低系统的总体能耗*,并提供同等的性能。

采用云原生处理器,每台服务器可以节省数百瓦电力,这足以让您在每个机架上再增加一台服务器。虽然看似收益颇微,但实际上通过每机架增加一台服务器,整个数据中心的计算密度将大幅提升。此外,在服务器层面节省能耗还可以减少对冷却系统的依赖,从而节省更多成本,并进一步降低能耗。

云原生处理器与 GPU 相结合,有助于实现目标性能,并降低能耗和总体成本。

未来的 AI:强大、高效、开放

随着 AI 加速涌入我们的生活和工作,我们需要克服的最关键障碍,是如何降低 AI 大规模应用的成本,而适度算力以及模型优化能够带来规模效率。

为计算配置适度算力,不仅需要确保硬件解决方案能满足当前的计算需求,还需要能够支持应用程序扩展,并经得起未来的算力需求考验。Ampere 云原生处理器为您提供广泛的选择,既能满足您当前的需求,同时具备灵活性,可轻松满足您未来的需求。无论您是选择 CPU-Only 的方案,还是 GPU 与 CPU 相结合的解决方案,云原生架构都拥有性能和效率优势,契合您当前和未来的计算需求。

云计算而生,Ampere 云原生处理器为行业提供可预测的卓越性能、平台可扩展性和空前的能效。

欢迎您与我们的专业销售团队洽谈合作,获取更多信息,或通过我们的开发者体验计划试用 Ampere System。

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    18288

    浏览量

    222167
  • cpu
    cpu
    +关注

    关注

    68

    文章

    10446

    浏览量

    206567
  • AI
    AI
    +关注

    关注

    87

    文章

    26458

    浏览量

    264072
  • 人工智能
    +关注

    关注

    1776

    文章

    43871

    浏览量

    230620
  • ChatGPT
    +关注

    关注

    27

    文章

    1409

    浏览量

    4750

原文标题:创芯课堂|用于人工智能(AI)的最佳处理器怎么选?

文章出处:【微信号:AmpereComputing,微信公众号:安晟培半导体】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    人工智能是什么?

    “互联网+”不断对传统行业的渗透,已对整个人工智能领域起着推波助澜的作用。 我们知道,机器人从电影银屏走进现实生活里,一定程度上反映了当前市场的供需关系,另一方面则说明大众在生活质量方面提出了更高
    发表于 09-16 15:40

    人工智能的前世今生 引爆人工智能大时代

    迅速拜访了应用数学家、物理学家约翰·冯·诺依曼,后者在现代计算机基本设计的定义起到了关键作用。当时,“人工智能”的概念已经在约翰·麦卡锡的头脑中发酵,只不过那时的他还没有找到合适的词来形容这一
    发表于 03-03 11:05

    百度人工智能大神离职,人工智能的出路在哪?

    `今天,吴恩达确认离职百度的消息迅速在业界刷屏。吴恩达曾不止一次感慨,现在人工智能最大的问题就是“机会太多,但人才太少”。AI,人工智能,该领域的研究包括机器人、语言识别、图像识别、自然语言处理
    发表于 03-23 17:00

    人工智能就业前景

    据相关招聘机构数据显示,2018年AI领域仍然是大部分资深技术人才转岗的首选目标,在人才最紧缺的前十大职位,时下最火的大数据、人工智能、算法类岗位占据半壁江山。据调查指出,2017年技术研发类岗位
    发表于 03-29 15:46

    解读人工智能的未来

    眼前的人工智能只是泡沫浮动,很快就会破灭。更诱人认为人工智能会威胁到我们的工作,甚至威胁社会。现如今的人工智能帮助我们的只是一些简单的工作,比如说帮助我们过滤电子邮件的垃圾邮件;预测
    发表于 11-14 10:43

    人工智能医生未来或上线,人工智能医疗市场规模持续增长

    基于人工智能实现的糖尿病及并发症管理产品,在公众号输入个人的相关信息,包括性别、体重、空腹血糖等,可以预测出此人近3年患糖尿病的风险系数。指标超过一定比例,还会建议个人尽快去医院就诊
    发表于 02-24 09:29

    人工智能:超越炒作

    MCU和低功耗Cortex,QorIQ®通信处理器产品系列以及S32 MCU和微处理器单元。事实上,我们已被评为全球三大人工智能芯片组公司之一。将AI推向Edge II:专用机器学习环境为了构建具有
    发表于 05-29 10:46

    东芝新一代图像识别人工智能处理器ViscontiTM5的DNN硬件IP

    东芝成功研发出面向汽车驾驶员辅助系统的图像识别人工智能处理器ViscontiTM5的DNN硬件IP
    发表于 07-25 07:45

    人工智能芯片是人工智能发展的

    人工智能芯片是人工智能发展的 | 特伦斯谢诺夫斯基责编 | 屠敏本文内容经授权摘自《深度学习 智能时代的核心驱动力量》从AlphaGo的人机对战,到无人驾驶汽车的上路,再到AI合成主播上岗
    发表于 07-27 07:02

    物联网人工智能是什么?

    2.概率推理3.机器人技术4.计算机视觉5.自然语言处理等常见人工智能产品:语音识别,指纹识别,人脸识别,视网膜识别,智能搜索,无人驾驶,机器翻译,智能控制,专家答疑系统等。如何学习好
    发表于 09-09 14:12

    什么叫嵌入式人工智能

    什么是嵌入式人工智能,它的实际应用百度大脑、语音搜索、图像、广告跟搜索排序及自动驾驶,用一句简单的话来概括就是在云端基于大数据、大计算做人工智能,这看起来是人工智能的主流。什么叫嵌入式人工智能
    发表于 10-28 08:43

    介绍的是高性能MCU之人工智能物联网应用开发相关知识

    。本系列痞子衡给大家介绍的是高性能MCU之人工智能物联网应用开发相关知识。  恩智浦半导体2017年开始推出的i.MX RT系列跨界处理器,这种高性能MCU给嵌入式端人工智能带来了可能,因此我们可以
    发表于 12-16 06:20

    什么是人工智能、机器学习、深度学习和自然语言处理

    、情感分析和情感分析。计算机视觉是另一个相关的学科。计算机视觉旨在复制人类的视觉,它涉及到场景识别、物体识别、物体分类、特征提取、手势识别和手势检测的图像处理。计算机视觉从人工智能和机器学习吸取了许多
    发表于 03-22 11:19

    《移动终端人工智能技术与应用开发》人工智能的发展与AI技术的进步

    人工智能的发展是随着人类生活需要,产业需求不断提升的,其中人工智能的发展很大程度上受到了计算机算力的影响,随着数据处理量的增大,人工智能算法对算力的要求逐年增加,而且没过两年算力上升一
    发表于 02-17 11:00

    基于IDE构建用于STM32微处理器的完整人工智能项目

    本用户手册指导了基于 IDE 逐步构建用于 STM32 微处理器的完整人工智能(AI)项目,自动转换预训练好的神经网络(NN)并集成所生成的优化库。本手册还介绍了 X-CUBE-AI 扩展包,该扩展
    发表于 09-07 06:15