0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

浪潮AI服务器NF5488A5的实测数据分享,单机最大推理路数提升88%

牵手一起梦 来源: 美通社 作者: 美通社 2020-12-24 15:25 次阅读

近日,在GTC China元脑生态技术论坛上,中科极限元、趋动科技、睿沿科技等元脑生态伙伴分享了多个场景下浪潮AI服务器NF5488A5的实测数据,结果表明浪潮NF5488A5大幅提升了智能语音、图像识别等AI模型的训练和推理性能,促进了产业AI解决方案的开发与应用。

NF5488A5是浪潮自研的新一代AI服务器,在4U空间内支持8颗第三代NVLink全互联的A100芯片,可为用户提供高达5 PetaFLOPS的AI计算性能和超高速带宽,为各类AI应用场景提供强大的计算力支撑。NF5488A5曾屡次打破全球权威AI测试榜单MLPerf的记录,基于ImageNet的ResNet50基准测试显示,NF5488A5完成训练仅需33.37分钟,单机性能高居第一;推理性能达到每秒54.9万张图片,3倍于去年推理榜单的服务器最好性能。

浪潮AI服务器NF5488A5的实测数据分享,单机最大推理路数提升88%

在本次GTC元脑生态技术论坛上,生态伙伴展示了与浪潮的合作方案并公布了在NF5488A5上的性能实测数据。

中科极限元开发的智能语音交互解决方案在国内处于领先水平,广泛应用于教育、交通、呼叫中心智能硬件等多个领域,本次在浪潮NF5488A5进行加速。NF5488A5高性能、高带宽、易部署的特性极大地促进了智能语音模型训练及线上推理。测试数据显示,在相同准确率下,与原有的系统相比,NF5488A5将模型训练速度提升了50%,单机最大推理路数提升88%,推理延迟提升65%。

趋动科技与浪潮联合打造了业内领先的一体化GPU资源池化解决方案。本次测试采用TensorFlow框架的Benchmark,测试小模型推理、大模型训练等多种AI应用场景,验证趋动科技OrionX AI加速器资源池化方案对浪潮NF5488A5的兼容性和性能。结果表明,NF5488A5服务器性能优异,部署资源池化方案后,本机性能损耗小于1%,对比以往服务器的GPU性能,数据提升近50%。

睿沿科技推出的高山雨燕工业视觉平台是为工业生产场景构建的智能多业务管理安全生产管理平台,可实现远程巡检、作业安全监管、区域安防等功能。该平台在计算层使用了浪潮NF5488A5加速训练和推理。实测结果显示,在图片视频分辨率相同的情况下,模型原来的训练时间为140分钟,使用NF5488A5之后,训练时间可缩短到105分钟,速度提升25%。单机最大推理FPS(每秒传输帧数)由20800提高到28000,提升35%。

以上实测数据显示,浪潮NF5488A5可广泛应用于图像视频、语音识别、金融分析、智能客服等典型AI应用场景,帮助AI用户高效完成AI基础设施和开发环境的构建,缩短开发周期,显著提升AI开发和应用效率。

浪潮是全球领先的AI计算领导厂商,其AI服务器在中国的市场份额已连续三年保持在50%以上。面对产业AI化的趋势,浪潮提出元脑生态,将聚集左右手伙伴、浪潮AI资源,以更加优质的产品技术能力和整体方案实施能力助力更多用户实现智能化转型和升级。在元脑生态中,浪潮将共享AI计算平台、AI资源平台和AI算法平台。目前元脑生态吸引了200+左右手伙伴参与,孵化出6大行业100+解决方案。

责任编辑:gt

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    12

    文章

    8088

    浏览量

    82433
  • 浪潮
    +关注

    关注

    1

    文章

    404

    浏览量

    23562
  • AI
    AI
    +关注

    关注

    87

    文章

    26362

    浏览量

    263947
收藏 人收藏

    评论

    相关推荐

    台积电:AI服务器处理器预计翻番,拉动收入增长 

    台积电将 AI 服务器处理器严格限定为用于 AI 训练与推理的 GPU、CPU 及 AI 加速器,剔除网络边缘与消费级设备中的此类产品。
    的头像 发表于 04-19 15:04 35次阅读

    潞晨科技Colossal-AI + 浪潮信息AIStation,大模型开发效率提升10倍

    的潞晨科技Colossal-AI系统,用户可实现在本地算力平台一键训练、微调、推理、部署大模型,将大模型开发效率提升10倍以上,并将算力效率提升2-3倍,在
    的头像 发表于 03-01 09:43 233次阅读
    潞晨科技Colossal-<b class='flag-5'>AI</b> + <b class='flag-5'>浪潮</b>信息AIStation,大模型开发效率<b class='flag-5'>提升</b>10倍

    使用NVIDIA Triton推理服务器来加速AI预测

    这家云计算巨头的计算机视觉和数据科学服务使用 NVIDIA Triton 推理服务器来加速 AI 预测。
    的头像 发表于 02-29 14:04 202次阅读

    浪潮信息服务器NF5180G7荣获SPECjbb2015性能冠军

    近日,国际权威的标准性能评测机构(SPEC)公布了SPECjbb2015榜单,浪潮信息服务器NF5180G7凭借每秒558,626次企业应用业务处理的卓越成绩,蝉联性能冠军。这一出色的表现不仅刷新了算力记录,更标志着
    的头像 发表于 02-01 14:23 220次阅读

    服务器数据恢复-DELL EqualLogic PS存储raid5数据恢复案例 #数据恢复#

    数据服务器
    Frombyte
    发布于 :2024年01月15日 11:52:52

    1U和2U服务器有何区别?

    CPU的数量,那么对服务器高度的需求就没有那么强烈,所以你就可以毫不犹豫的选择1U服务器提升单机柜计算密度,并将能够充分利用机柜电力。当单机
    发表于 12-18 10:14

    浪潮信息NF5468系列AI服务器率先支持英伟达最新推出的L40S GPU

    浪潮信息NF5468服务器大幅提升了LLaMA大模型的微调训练性能。目前该产品已具备交付能力,客户可以进行下单采购。   本次浪潮信息推出
    的头像 发表于 09-22 11:20 1528次阅读

    浪潮信息NF5468服务器LLaMA训练性能

    浪潮信息宣布旗下NF5468系列AI服务器率先支持英伟达最新推出的L40S GPU,可为人工智能大模型训练和推理、元宇宙及图形视频处理等应用
    的头像 发表于 09-22 11:16 1858次阅读

    台湾AI服务器及玩家分析(2023)

    面对ChatGPT带来的人工智能浪潮,海外科技巨头进一步加大云资本开支,并提升AI投入比例,中国台湾服务器ODM厂商作为海外科技巨头的主要供应商将直接受益。国内
    的头像 发表于 08-08 16:27 2378次阅读
    台湾<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>及玩家分析(2023)

    浪潮NF5468A5 GPU服务器整体设计及性能深度测评解读

    本文将围绕NF5468A5整体设计及性能测试进行深度测评解读,展现HPL、内存带宽、AI训练、AI推理、视频编解码、HASH等应用场景的各类测试数据
    的头像 发表于 07-13 11:22 763次阅读
    <b class='flag-5'>浪潮</b><b class='flag-5'>NF</b>5468A5 GPU<b class='flag-5'>服务器</b>整体设计及性能深度测评解读

    浪潮信息联合英特尔发布新一代AI服务器NF5698G7

    浪潮信息联合英特尔发布面向生成式AI领域创新开发的新一代AI服务器NF5698G7。该AI
    的头像 发表于 07-13 09:43 413次阅读

    如何使用NVIDIA Triton 推理服务器来运行推理管道

    使用集成模型在 NVIDIA Triton 推理服务器上为 ML 模型管道提供服务
    的头像 发表于 07-05 16:30 1153次阅读
    如何使用NVIDIA Triton <b class='flag-5'>推理</b><b class='flag-5'>服务器</b>来运行<b class='flag-5'>推理</b>管道

    AI服务器与传统服务器的区别是什么?

    AI 服务器确实是整个服务器市场的一部分,但它们是专门为基于云的 AI 模型训练或推理而设计的。在规格方面,广义的
    发表于 06-21 12:40 1303次阅读

    如何使用FasterTransformer进行单机及分布式模型推理

    线上产品的用户体验都与服务的响应时长成反比,复杂的模型如何极致地压缩请求时延? 模型推理通常是资源常驻型服务,如何通过提升服务
    的头像 发表于 05-18 14:35 2074次阅读
    如何使用FasterTransformer进行<b class='flag-5'>单机</b>及分布式模型<b class='flag-5'>推理</b>