0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

Nvidia扩大了在MLPerf Benchmark上进行AI推理的领先优势

倩倩 来源:文财网 作者:文财网 2020-10-24 09:17 次阅读

Nvidia表示,已通过今年早些时候推出的A100 GPU芯片,扩大了在MLPerf Benchmark上进行AI推理的领先优势。Nvidia在第二版MLPerf Inference中赢得了针对数据中心和边缘计算系统的六个应用程序测试中的每一个。这些测试是对最初的两个计算机视觉基准测试的扩展-AI测试现在包括推荐系统,自然语言理解,语音识别医学成像

行业观察家Moor Insights&Strategy的HPC和机器学习高级分析师Karl Freund评论说,与Nvidia的展示一样令人印象深刻,还应该注意,某些原本有望参加MLPerf竞赛的公司却没有参加。。

弗洛伊德说:“英伟达在竞争激烈的竞争者中表现出色。” 与(Nvidia)V100(GPU)相比,他们的A100效果惊人,证明了其增强的Tensor核心架构的价值。我赞扬MLPerf添加了新的基准,这些基准越来越代表快速增长的推理机会,例如推荐引擎。

Freund说:“话说回来,竞争要么是因为客户项目太忙,要么是他们的芯片还没有准备好。” “例如,SambaNova(人工智能系统平台)宣布与LLNL建立新的合作伙伴关系,而英特尔Habana(可编程深度学习加速器)仍在酝酿中。如果我仍在芯片创业公司,我将等待运行MLPerf(一个昂贵的项目),直到我已经获得了一些灯塔客户。

英伟达在其结果公告中表示,其A100的AI推理速度比CPU快237倍。

Nvidia加速计算部总经理兼副总裁Ian Buck表示:“每个行业都在寻求更好的方式来应用AI提供新服务和发展业务,这是我们的转折点。” “我们为在MLPerf上实现这些结果而进行的工作使公司的AI性能达到了新的水平,从而改善了我们的日常生活。”

Nvidia表示,该公司及其合作伙伴使用Nvidia的加速平台(包括Nvidia数据中心GPU,Edge AI加速器和Nvidia优化的软件)提交了MLPerf 0.7结果。Nvidia A100于今年早些时候推出,具有第三代Tensor内核和多实例GPU技术,在ResNet-50测试中的领先优势得到了提高,比上一轮的CPU高出30倍,是6倍。该公司补充说,它的GPU在公共云中的AI推理能力首次超过了CPU,并表示Nvidia GPU上的云AI推理总能力每两年增长约10倍。

责任编辑:lq

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4582

    浏览量

    101682
  • 机器学习
    +关注

    关注

    66

    文章

    8105

    浏览量

    130542
  • GPU芯片
    +关注

    关注

    1

    文章

    285

    浏览量

    5681
  • MLPerf
    +关注

    关注

    0

    文章

    33

    浏览量

    599
收藏 人收藏

    评论

    相关推荐

    利用NVIDIA组件提升GPU推理的吞吐

    本实践中,唯品会 AI 平台与 NVIDIA 团队合作,结合 NVIDIA TensorRT 和 NVIDIA Merlin HierarchicalKV(HKV)将
    的头像 发表于 04-20 09:39 142次阅读

    开发者手机 AI - 目标识别 demo

    。 NNRt host 实现NNRt HDI接口功能,通过对接底层AI芯片接口为上层应用提供NPU硬件推理的能力。 功能实现 JS从相机数据流获取一张图片,调用Native的接口进行
    发表于 04-11 16:14

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 206次阅读

    HarmonyOS:使用MindSpore Lite引擎进行模型推理

    场景介绍 MindSpore Lite 是一款 AI 引擎,它提供面向不同硬件设备 AI 模型推理的功能,目前已经图像分类、目标识别、人
    发表于 12-14 11:41

    NVIDIA 为全球领先AI 计算平台 Hopper 再添新动力

    NVIDIA HGX™ H200,为 Hopper 这一全球领先AI 计算平台再添新动力。NVIDIA HGX H200 平台基于 NVIDI
    发表于 11-14 14:30 102次阅读
    <b class='flag-5'>NVIDIA</b> 为全球<b class='flag-5'>领先</b>的 <b class='flag-5'>AI</b> 计算平台 Hopper 再添新动力

    利用 NVIDIA Jetson 实现生成式 AI

    上以交互速率运行的 Llama-2-70B 模型。 图 1. 领先的生成式 AI 模型在  Jetson AGX Orin 上的推理性能 如要在 Jetson 上快速测试最新的模型和应用,请使用 Jetson 生成式
    的头像 发表于 11-07 21:25 479次阅读
    利用 <b class='flag-5'>NVIDIA</b> Jetson 实现生成式 <b class='flag-5'>AI</b>

    周四研讨会预告 | 注册报名 NVIDIA AI Inference Day - 大模型推理线上研讨会

    ,使用 NVIDIA Triton TM  推理服务器进行端到端部署 LLM Serving,以及金融行业的 AI、NLP/LLM 应用场景、客户案例。 通过本次活动,您将了解基于上述
    的头像 发表于 10-26 09:05 191次阅读

    NVIDIA Grace Hopper超级芯片横扫MLPerf推理基准测试

    Hopper超级芯片首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大NVIDIA H100 Tensor Core GPU的
    发表于 09-13 09:45 155次阅读
    <b class='flag-5'>NVIDIA</b> Grace Hopper超级芯片横扫<b class='flag-5'>MLPerf</b><b class='flag-5'>推理</b>基准测试

    NVIDIA Grace Hopper 超级芯片横扫 MLPerf 推理基准测试

    超级芯片 首次亮相 MLPerf 行业基准测试,其运行了所有数据中心推理测试,进一步扩大NVIDIA H100 Tensor Core GPU 的
    的头像 发表于 09-12 20:40 272次阅读

    最新MLPerf v3.1测试结果认证,Gaudi2在GPT-J模型上推理性能惊人

    英特尔产品在全新MLCommons AI推理性能测试中尽显优势 今日,MLCommons公布针对 60 亿参数大语言模型及计算机视觉与自然语言处理模型GPT-J的 MLPerf
    的头像 发表于 09-12 17:54 230次阅读
    最新<b class='flag-5'>MLPerf</b> v3.1测试结果认证,Gaudi2在GPT-J模型上<b class='flag-5'>推理</b>性能惊人

    墨芯支持Byte MLPerf助力AI应用

    在大模型趋势下,墨芯通过领先的稀疏计算优势,助力企业加速AI应用,商业化进程接连取得重要突破。
    的头像 发表于 09-07 11:37 663次阅读
    墨芯支持Byte <b class='flag-5'>MLPerf</b>助力<b class='flag-5'>AI</b>应用

    全球领先系统制造商推出 NVIDIA AI 就绪型服务器,为企业大幅提升生成式 AI 性能

    with NVIDIA 拉斯维加斯 — VMware Explore — 太平洋时间 2023 年 8 月 22 日 — NVIDIA 宣布,全球领先的系统制造商将推出 AI 就绪型
    的头像 发表于 08-23 19:10 375次阅读

    新的 MLPerf 推理网络部分展现 NVIDIA InfiniBand 网络和 GPUDirect RDMA 的强大能力

    MLPerf Inference v3.0 中,NVIDIA 首次将网络纳入了 MLPerf 的评测项目,成为了 MLPerf 推理数据
    的头像 发表于 07-19 19:10 648次阅读
    新的 <b class='flag-5'>MLPerf</b> <b class='flag-5'>推理</b>网络部分展现 <b class='flag-5'>NVIDIA</b> InfiniBand 网络和 GPUDirect RDMA 的强大能力

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型在 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
    的头像 发表于 07-05 16:30 1155次阅读
    如何使用<b class='flag-5'>NVIDIA</b> Triton <b class='flag-5'>推理</b>服务器来运行<b class='flag-5'>推理</b>管道

    如何在RT-Thread OS环境下使用ncnn进行AI推理

    今天简报较短,主要演示一下如何在RT-Thread OS环境下使用ncnn进行AI推理
    的头像 发表于 05-04 16:29 791次阅读
    如何在RT-Thread OS环境下使用ncnn<b class='flag-5'>进行</b><b class='flag-5'>AI</b><b class='flag-5'>推理</b>