0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

利用NVIDIA GPU并行计算技术解决AI研究问题

星星科技指导员 来源:NVIDIA 作者:Solee Moon 2022-04-19 16:44 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

由于冠状病毒的存在, 2021 年韩国科学技术信息研究所( KISTI ) GPU 黑客大赛在 KISTI NVIDIA 和 OpenACC 组织的专家导师指导下举行。为了激发科学家加速 AI 研究或 HPC 代码的可能性, hackathon 提供了利用 NVIDIA GPU并行计算技术解决研究问题和扩展专业知识的机会。

以面对面活动而闻名的虚拟黑客大会对与会者和主持人都提出了自己的挑战。新的模式还需要兼顾由三个 HPC 和 AI 团队、四个高等教育和研究团队以及两个行业团队组成的多样化团队。

活动团队发现以下配方有助于为参与者创造有意义的成功体验:

指导

基于他们在特定领域或编程语言方面的专业知识,专门的导师与团队一起进行指导,以设定目标,并考虑不同的方法。导师们合作解决团队遇到的问题并排除障碍。每天的导师同步电话让每个人都集中精力,朝着实现目标的最佳策略努力。

社交

每个人都知道,只工作不玩耍实际上会阻碍团队的生产力。 hackathon 为参与者和导师提供了 TGIF 社交时间会议。使用 Metaverse Gather 城镇空间,导师和团队分享经验,为电池充电,并建立联系,帮助他们在活动期间继续前进。

资源和现场研讨会

成功的另一个重要因素是为与会者提供专门的培训和资源。例如, NVIDIA 深度学习培训中心( DLI )的一位大使和导师介绍了一个涵盖 CUDA C / C ++主题的研讨会。其他导师提供了团队专用的技术课程,重点是TRT和 NVIDIA Triton 、OpenACC和 NSight 系统的评测、并行计算和优化。

努力工作是有回报的

延世大学的帕斯卡团队正在开发一种热流体解算器,该解算器可以有效地计算湍流的热运动。在这次黑客大会上,团队通过 OpenACC 和 cuFFT 库将基于 CPU 的现有代码转换为多 GPU 环境。这使得最耗时的子程序之一的计算速度加快了 4 . 84 倍 RHS (右侧,分步)。

来自 AmorePacific 化妆品公司的 Amore Opt 团队致力于 GPU 优化 DeepLabV3 +细分模型。通过应用他们对 TensorRT 推理优化器和 NVIDIA Triton 推理服务器的了解,他们提高了推理速度,使推理速度提高了 26 倍。他们做到了这一点,同时保持人工智能模型的准确性,以便为未来的大规模客户服务检测皮肤问题。

首尔国立大学的 TFC 团队参与了一个项目,以加速基于 CPU 的 Fortran 内部流体计算代码。通过在 KISTI 使用 NVIDIA GPU s ,团队加速了耗时的三对角矩阵算法( TDMA )用于热解算器和动量解算器,以及快速傅立叶变换( FFT )用于压力解算器计算。他们在一台 V100 GPU 上实现了 11.15 倍的速度。

NVIDIA Inception 成员 Nota 和杭阳大学合作,通过利用 NVIDIA GPU s 中的张量核进行 INT4 量化,优化了 Nota 模型压缩引擎。名为 NOTA-HYU 的团队学会了使用 NVIDIA 分析工具 NSight 系统和 NSight 计算。然后,他们应用 NVIDIA 库弯刀,通过 CUDA 优化,使剩余块的总体速度提高 1.85 倍。

关于作者

Solee Moon 是 NVIDIA 高等教育与研究( HER )和 NVIDIA 深度学习培训中心( DLI )项目的企业营销专家,专注于支持 AI 开发者社区的发展。在 NVIDIA 之前, Solee 曾在三星电子 CTR 担任品牌营销专家,执行各种整合营销传播活动。

审核编辑:郭婷

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5687

    浏览量

    110117
  • 深度学习
    +关注

    关注

    73

    文章

    5608

    浏览量

    124634
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    寻找对RISCV众核并行计算感兴趣的伙伴、朋友

    一、我们在RISCV众核并行计算方案包括: 1、众核芯片 自研RISCV CPU IP,和自研NOC IP(片上网络),在单一芯片上利用NOC IP连接几十/几百/几千个以上的CPU核,组成众核芯片
    发表于 03-28 14:41

    寻找对RISCV众核并行计算感兴趣的伙伴

    一、我们在RISCV众核并行计算方案包括: 1、众核芯片 自研RISCV CPU IP,和自研NOC IP(片上网络),在单一芯片上利用NOC IP连接几十/几百/几千个以上的CPU核,组成众核芯片
    发表于 03-28 14:37

    成功案例:象帝先计算技术与Imagination合作——面向现代图形与计算工作负载的专业GPU

    解决方案的企业需要一种既能提供强大性能,又能支持复杂系统环境的GPU架构。象帝先计算技术:面向专业市场的多功能GPU解决方案象帝先计算技术是一家专注于开发通用高性能国产
    的头像 发表于 03-09 09:17 454次阅读
    成功案例:象帝先<b class='flag-5'>计算技术</b>与Imagination合作——面向现代图形与<b class='flag-5'>计算</b>工作负载的专业<b class='flag-5'>GPU</b>

    为啥 AI 计算速度这么惊人?—— 聊聊 GPU、内存与并行计算

    提到AI,大家常说它“算得快”,其实是指AI能在眨眼间处理海量数据。可它为啥有这本事?答案就藏在“GPU+高速内存+并行计算”这trio(组合)里。咱们可以把
    的头像 发表于 12-05 14:35 1121次阅读
    为啥 <b class='flag-5'>AI</b> <b class='flag-5'>计算</b>速度这么惊人?—— 聊聊 <b class='flag-5'>GPU</b>、内存与<b class='flag-5'>并行计算</b>

    一文看懂AI大模型的并行训练方式(DP、PP、TP、EP)

    大家都知道,AI计算(尤其是模型训练和推理),主要以并行计算为主。AI计算中涉及到的很多具体算法(例如矩阵相乘、卷积、循环层、梯度运算等),
    的头像 发表于 11-28 08:33 2067次阅读
    一文看懂<b class='flag-5'>AI</b>大模型的<b class='flag-5'>并行</b>训练方式(DP、PP、TP、EP)

    神经网络的并行计算与加速技术

    问题。因此,并行计算与加速技术在神经网络研究和应用中变得至关重要,它们能够显著提升神经网络的性能和效率,满足实际应用中对快速响应和大规模数据处理的需求。神经网络并行
    的头像 发表于 09-17 13:31 1297次阅读
    神经网络的<b class='flag-5'>并行计算</b>与加速<b class='flag-5'>技术</b>

    【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件

    生物化学计算机,它通过离子、分子间的相互作用来进行复杂的并行计算。因而未来可期的前景是AI硬件将走向AI湿件。 根据研究,估算出大脑的功率是
    发表于 09-06 19:12

    从自然仿真到智能调度——GPU并行计算的多场景突破

    我们正在参加全球电子成就奖的评选,欢迎大家帮我们投票~~~谢谢支持随着复杂计算问题的不断涌现,传统的CPU串行计算在处理大规模数据与高并发任务时逐渐显露瓶颈。GPU(图形处理单元)凭借其高度
    的头像 发表于 09-03 10:32 997次阅读
    从自然仿真到智能调度——<b class='flag-5'>GPU</b><b class='flag-5'>并行计算</b>的多场景突破

    Votee AI借助NVIDIA技术加速方言小语种LLM开发

    Votee AI 利用 NVIDIAGPU 硬件、NeMo Curator 数据处理软件、NeMo Framework 模型训练框架及 Auto Configurator 优化工
    的头像 发表于 08-20 14:21 1029次阅读

    NVIDIA AI助力科学研究领域持续突破

    随着 AI 技术的广泛应用,AI 正在成为科学研究的引擎。NVIDIA 作为重要的技术推手,持续
    的头像 发表于 08-05 16:30 1328次阅读

    AI芯片:加速人工智能计算的专用硬件引擎

    处理等应用落地的关键硬件基础。   AI芯片的核心技术特点     AI芯片的设计重点在于提升计算效率,主要技术特点包括:   1.  
    的头像 发表于 07-09 15:59 1961次阅读

    全球各大品牌利用NVIDIA AI技术提升运营效率

    欧莱雅、LVMH 集团和雀巢利用 NVIDIA 加速的智能体 AI 和物理 AI,大幅提升产品设计、营销及物流等方面的运营效率。
    的头像 发表于 06-19 14:36 1358次阅读

    边缘AI广泛应用推动并行计算崛起及创新GPU渗透率快速提升

    是时候重新教育整个生态了。边缘AI的未来不属于那些高度优化但功能狭窄的芯片,而是属于可编程的、可适配的并行计算平台,它们能与智能软件共同成长并扩展。
    的头像 发表于 06-11 14:57 755次阅读

    并行计算的崛起:为什么GPU将在边缘AI中取代NPU

    人工智能(AI)不仅是一项技术突破,它更是软件编写、理解和执行方式的一次永久性变革。传统的软件开发基于确定性逻辑和大多是顺序执行的流程,而如今这一范式正在让位于概率模型、训练行为以及数据驱动的计算
    的头像 发表于 06-06 14:55 819次阅读
    <b class='flag-5'>并行计算</b>的崛起:为什么<b class='flag-5'>GPU</b>将在边缘<b class='flag-5'>AI</b>中取代NPU

    Imagination与澎峰科技携手推动GPU+AI解决方案,共拓计算生态

    的繁荣发展。 本次合作将聚焦以下两大方向: 联合打造面向AI应用的高性能计算解决方案   依托 Imagination GPU并行计算和能效
    发表于 05-21 09:40 1295次阅读