0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

基于5个问题阐述GPU在增强AI和机器学习技术中的作用

半导体产业纵横 来源:半导体产业纵横 2023-01-30 10:42 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

基于5个问题阐述GPU在增强AI机器学习技术中的作用。

在21世纪初期,研究人员意识到,由于机器学习算法通常具有与图形处理算法相同类型的计算,因此GPU可以为机器学习提供基于CPU计算的更有效的替代方案。尽管近年来基于CPU的可用性和成本限制,但基于GPU的计算已经成为机器学习或神经网络训练的事实标准。基于5个问题阐述GPU 在增强 AI 和机器学习技术中的作用。

GPU是什么?

顾名思义,专业的图形处理单元(GPU)最初是在几十年前设计的,用于高效的执行图像和视频处理等常见的操作。这些过程以基于矩阵的数学计算为特色。人们通常更熟悉中央处理器(CPU),它存在于笔记本电脑手机和智能设备中,可以执行许多不同类型的操作。

在21世纪初期,研究人员意识到,由于机器学习算法通常具有与图形处理算法相同类型的计算,因此GPU可以为机器学习提供基于CPU计算的更有效的替代方案。尽管近年来基于CPU的可用性和成本限制,但基于GPU的计算已经成为机器学习或神经网络训练的事实标准。

使用GPU的好处是什么?

使用GPU最关键的好处就是效率高。GPU提供的计算效率不仅仅是简化了分析过程,它还促进了更广泛的模型训练以获得更高的准确性,扩大了模型搜索过程的范围以防止替代规范,使以前无法实现的某些模型变得可行,并允许对替代数据集增加额外的敏感性以确保其稳健性。

3661a1fe-a029-11ed-bfe3-dac502259ad0.png

GPU如何支持专家证词?

基于人工智能的系统用数据驱动的决策取代了人类决策。这可以使得在处理大量复杂信息时减少主观性和错误。我们利用人工智能和机器学习来推动越来越复杂的任务的自动化,并解锁新的分析方法,包括使用监督和非监督学习,这些技术都由我们内部的GPU支持。

数据科学中心如何利用GPU进行计算?

我们在案例生命周期的所有阶段(从发现到经济分析)以及从标准表格数据到文本和图像的所有类型的数据都使用GPU。其中一些应用程序依赖于GPU计算已经被广泛使用的应用程序,如神经网络,而另一些应用程序则依赖于更定制的分析框架。下面是一些例子。

矩阵运算

GPU使我们能够快速地执行自定义矩阵运算。例如,在反垄断问题中,我们经常需要计算所有供应商和所有消费者之间的距离(坐标对)。将计算从CPU迁移到GPU使我们能够每秒计算近1亿个坐标对之间的距离。

深层神经网络

围绕基于GPU计算的许多关注的重点都集中在神经网络上。虽然能够处理常规的分类和回归问题,但附加的特定于任务的神经网络体系结构为文本、图像和声音的特定分析提供了一个框架。考虑到这些模型的复杂性和生成可靠结果所需的数据量,如果没有GPU计算资源,它们的使用实际上是无法实现的。当在GPU上训练一个流行的多类图像模型时,与在单个CPU上运行相同的进程相比,我们体验到了25,000%的速度提高。我们在针对消费者欺诈问题的内容分析中利用了这种效率,我们设计文本和图像分类器来表征有问题的营销材料的目标受众。

增强树

随着GPU计算变得越来越普遍,流行的机器学习软件包越来越多地在其产品中包含基于GPU的计算选项。我们经常在回归和分类问题中使用增强树。这些模型依次将多个简单的决策树聚合为一个更大、更准确的学习器。与可能具有数亿个参数的深度神经网络相比,这些模型更小,因此需要更少的数据和训练时间来产生可概括的推理。这些优势使得它们在我们经常遇到的许多类型的分析中比深度神经网络更有用。切换到基于GPU的训练过程使我们能够为这些任务训练模型,其速度比相应的 CPU 规范快近 100 倍。

语言模型

语言模型通常基于一种或多种深度学习技术,可以对文本进行分类、解析和生成。我们使用大型语言模型来提取特定的信息片段,解析实体之间的关系,识别语义关系,并在文本分类问题中补充传统的基于术语的特征,例如在诽谤事件中量化围绕公共实体的社交媒体情绪。

不出所料,考虑到这些模型可以做的所有事情,利用CPU通过这些模型处理文档会给分析过程带来显著的延迟。仅仅使用一个GPU,我们就可以将文档分割成独立的组件,并且每秒可以完全处理几百个句子。

未来我们可以期待这个领域的哪些发展?

GPU和与其相关的软件将继续发展。新的硬件可能具有更多的内核、更快的内核和更多的内存,以适应更大的模型和数据批。新的软件可能会使跨多个GPU,共享模型和数据变得更加容易。

其他发展可能涉及完全不同的设备。为了解决GPU计算中仍然存在的一些效率低下的问题,机器学习从业者越来越多地转向应用特定的集成电路(ASIC)和现场可编程门阵列(FPGA)。例如,谷歌的张量处理单元(TPU)是一个专门为其机器学习TensorFlow软件包执行计算而设计的ASIC。FPGA提供了更大的灵活性,通常用于在需要低延迟、高带宽和最低能耗的生产环境中部署机器学习模型。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5271

    浏览量

    136070
  • AI
    AI
    +关注

    关注

    91

    文章

    41115

    浏览量

    302604
  • 机器学习
    +关注

    关注

    67

    文章

    8565

    浏览量

    137226

原文标题:GPU 在增强 AI 和机器学习技术中的作用

文章出处:【微信号:ICViews,微信公众号:半导体产业纵横】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    边缘AI算力临界点:深度解析176TOPS香橙派AI Station的产业价值

    ,开发者利用AI Station的176TOPS算力,机器人平台上运行模仿学习策略,控制机械臂完成精细操作[](https://hwcomputing.csdn.net
    发表于 03-10 14:19

    苹果AI革命:M5芯片10核GPUAI处理速度翻倍,Apple Glass路上

    三款核心设备。这一场苹果围绕M5芯片AI硬件的革新,也成为苹果迈进AI时代以端侧大模型和空间计算的又一成绩。     3nm+10核GPU革命,AI
    的头像 发表于 10-19 01:13 1.1w次阅读
    苹果<b class='flag-5'>AI</b>革命:M<b class='flag-5'>5</b>芯片10核<b class='flag-5'>GPU</b>、<b class='flag-5'>AI</b>处理速度翻倍,Apple Glass<b class='flag-5'>在</b>路上

    【「AI芯片:科技探索与AGI愿景」阅读体验】+具身智能芯片

    智能技术的关键要求: 1、基于忆阻器的感存算一体化技术 牛。都可以情感生成了。 2、具身智能的执行控制 目前,AI运动控制的研究主要集中: 将成熟的
    发表于 09-18 11:45

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的科学应用

    和量子计算的两项新兴的技术,将在生产假说方面发挥重要作用,从而改变科学发现的范式。 生成式AI: 2、穷举搜索 3、分析排错与组合优化 分析排错是生成假说的重要手段。强化学习
    发表于 09-17 11:45

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    计算 闪存的新颖方法代表了一种多用途的管理模型权重的策略,它根据输入的性质提升性能,从而增强所提出的方案各种大模型场景的有效性、可用性和实用性。 3、基于GPU的大模型计算 3.
    发表于 09-12 17:30

    【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件

    的不同。随着AI热潮的兴起,大脑的抽象模型已被提炼成各种的AI算法,并使用半导体芯片技术加以实现。 而大脑是一由无数神经元通过突触连接而成的复杂网络,是极其复杂和精密的。大脑
    发表于 09-06 19:12

    AI 芯片浪潮下,职场晋升新契机?

    职场、渴望专业领域更进一步的人来说,AI 芯片与职称评审之间,实则有着千丝万缕的联系,为职业晋升开辟了新的路径。 AI 芯片领域细分与职称对应 目前,AI 芯片从
    发表于 08-19 08:58

    贸泽电子2025边缘AI机器学习技术创新论坛回顾(上)

    2025年,随着人工智能技术的快速发展,边缘AI机器学习市场迎来飞速增长,据Gartner预计,2025年至2030年,边缘AI市场将保持
    的头像 发表于 07-21 11:08 1326次阅读
    贸泽电子2025边缘<b class='flag-5'>AI</b>与<b class='flag-5'>机器</b><b class='flag-5'>学习</b><b class='flag-5'>技术</b>创新论坛回顾(上)

    FPGA机器学习的具体应用

    随着机器学习和人工智能技术的迅猛发展,传统的中央处理单元(CPU)和图形处理单元(GPU)已经无法满足高效处理大规模数据和复杂模型的需求。FPGA(现场可编程门阵列)作为一种灵活且高效
    的头像 发表于 07-16 15:34 3095次阅读

    任正非说 AI已经确定是第四次工业革命 那么如何从容地加入进来呢?

    实践。 为开源项目贡献代码或者文档。比如,帮助完善一机器学习数据集的加载模块的代码,或者撰写某个AI算法的使用说明文档。这不仅可以提升自己的技术
    发表于 07-08 17:44

    最新人工智能硬件培训AI基础入门学习课程参考2025版(离线AI语音视觉识别篇)

    端侧离线 AI 智能硬件作为 AI 技术的重要载体之一,凭借其无需依赖网络即可实现智能功能的特性,一些网络条件受限或对数据隐私有较高要求的场景
    发表于 07-04 11:14

    Nordic收购 Neuton.AI 关于产品技术的分析

    Nordic Semiconductor 于 2025 年收购了 Neuton.AI,这是一家专注于超小型机器学习(TinyML)解决方案的公司。 Neuton 开发了一种独特的神经网络框架,能够
    发表于 06-28 14:18

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    自家GPU 提出的多卡算力互连技术,是早期为了应对深度学习对超高算力需求而单卡算力不足的局面的解决方案,当然这都是官方用来吹牛的话术。我自己2019年左右第一次接触到多卡交火的GIY
    发表于 06-18 19:31

    提升AI训练性能:GPU资源优化的12实战技巧

    人工智能与机器学习技术迅速发展的背景下,GPU计算资源的高效利用已成为关键技术指标。优化的
    的头像 发表于 05-06 11:17 1680次阅读
    提升<b class='flag-5'>AI</b>训练性能:<b class='flag-5'>GPU</b>资源优化的12<b class='flag-5'>个</b>实战技巧

    【「零基础开发AI Agent」阅读体验】+ 入门篇学习

    工程、RAG技术、和AI Agent是3重要方面。其中AI Agent作为2024年最新兴的技术领域,具备很好的应用前景,本书对零基础小白
    发表于 05-02 09:26