0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

《开放加速规范AI服务器设计指南》发布,应对生成式AI爆发算力挑战

浪潮AIHPC 来源:浪潮AIHPC 2023-08-11 17:29 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

日前,在2023年开放计算社区中国峰会(OCP China Day 2023)上,《开放加速规范AI服务器设计指南》(以下简称《指南》)发布。《指南》面向生成式AI应用场景,进一步发展和完善了开放加速规范AI服务器的设计理论和设计方法,将助力社区成员高效开发符合开放加速规范的AI加速卡,并大幅缩短与AI服务器的适配周期,为用户提供最佳匹配应用场景的AI算力产品方案,把握生成式AI爆发带来的算力产业巨大机遇。

当前,生成式AI技术飞速发展,引领了新一轮AI创新浪潮。AI大模型是生成式AI的关键底座,对生产效率提升、传统产业转型升级具有重大的价值潜力,而大模型的高效训练通常需要具备千卡以上高算力AI芯片构成的AI服务器集群支撑。随着生成式AI加速落地,业界对配置高算力AI芯片的AI服务器需求也不断高涨。在此背景下,全球已有上百家公司投入新型AI加速芯片的开发,AI计算芯片多元化趋势凸显。由于缺乏统一的业界规范,不同厂商的AI加速芯片存在显著差异,导致不同芯片需要定制化的系统硬件平台承载,带来更高的开发成本和更长的开发周期。

OCP是全球基础硬件技术领域覆盖面最广、最有影响力的开源组织。2019年OCP成立OAI(Open Accelerator Infrastructure)小组,对更适合超大规模深度学习训练的AI加速卡形态进行了定义,以解决多元AI加速卡形态和接口不统一的问题。2019年底,OCP正式发布了OAI-UBB(Universal Baseboard)1.0设计规范,并随后推出了基于OAI-UBB1.0规范的开放加速硬件平台,无需硬件修改即可支持不同厂商的OAM产品。近年来,以浪潮信息为代表的系统厂商研制了多款符合开放加速规范的AI服务器,实现了开放加速AI服务器的产业化实践。

基于在开放加速计算领域的产品研发和工程实践经验,《指南》进一步发展和完善了开放加速规范AI服务器的设计理论和设计方法,提出四大设计原则、全栈设计方法,包括硬件设计参考、管理接口规范和性能测试标准,旨在帮助社区成员更快更好地开发AI加速卡并适配开放加速AI服务器,应对生成式AI的算力挑战。

《指南》指出,开放加速规范AI服务器设计应遵循四大设计原则,即应用导向、多元开放、绿色高效、统筹设计。在此基础上,应采用多维协同设计、全面系统测试和性能测评调优的设计方法,以提高适配部署效率、系统稳定性、系统可用性。

多维协同设计是指系统厂商和芯片厂商在规划初期要做好全方位、多维度的协同,最大化减少定制开发内容。大模型计算系统通常是一体化高集成度算力集群,包含计算、存储、网络设备,软件、框架、模型组件,机柜、制冷、供电、液冷基础设施等。只有通过多维协同,才能实现全局最优的性能、能效或TCO指标,提高系统适配和集群部署效率。《指南》给出了从节点到集群的软硬全栈参考设计。

全面系统测试是指异构加速计算节点通常故障率高,需要更加全面、严苛的测试,才能最大程度降低系统生产、部署、运行过程中的故障风险,提高系统稳定性,减少断点对训练持续性的影响。《指南》对结构、散热、压力、稳定性、软件兼容性等方面的测试要点进行了全面梳理。

性能测评调优是指需要对大模型加速计算系统开展多层次的性能评测和软硬件深度调优。《指南》给出了基础性能、互连性能、模型性能测试的要点和指标,并指出了针对大模型训练和推理性能调优的要点,以确保开放加速规范AI服务器能够有效完成当前主流大模型的创新应用支撑。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    14

    文章

    10353

    浏览量

    91742
  • ai技术
    +关注

    关注

    1

    文章

    1315

    浏览量

    25802
  • 算力
    +关注

    关注

    2

    文章

    1670

    浏览量

    16832
  • 生成式AI
    +关注

    关注

    0

    文章

    538

    浏览量

    1129

原文标题:《开放加速规范AI服务器设计指南》发布,应对生成式AI爆发算力挑战

文章出处:【微信号:浪潮AIHPC,微信公众号:浪潮AIHPC】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    AI服务器PCBA加工技术解析:高时代的核心制造能力

    AI服务器PCBA加工 是AI服务器硬件制造的重要环节,也是支撑人工智能基础设施的重要技术能
    的头像 发表于 04-16 22:57 89次阅读

    成都汇阳投资关于AI 引爆需求,存储芯片涨价周期来袭

    AI 黑洞来袭 ,存储需求呈爆炸增长 AI
    的头像 发表于 03-27 17:12 416次阅读

    AI时代的热挑战:宏展高发热大负载Walk-in试验箱的技术应对

    AI迅猛发展的今天,服务器已从单纯的数据处理机演进为智能时代的核心基础设施。无论是训练大型语言模型、实时推演AI应用,还是进行边缘运算
    的头像 发表于 03-27 09:52 265次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>时代的热<b class='flag-5'>挑战</b>:宏展高发热大负载Walk-in试验箱的技术<b class='flag-5'>应对</b>

    爆发下的刚需赛道:AI服务器高频高速连接需求迎爆发式增长

    当前,AI基建正进入全面爆发期,高频高速连接作为AI
    的头像 发表于 03-20 14:07 855次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>爆发</b>下的刚需赛道:<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>高频高速连接<b class='flag-5'>器</b>需求迎<b class='flag-5'>爆发</b>式增长

    边缘AI临界点:深度解析176TOPS香橙派AI Station的产业价值

    AI服务器) 这一形态应运而生。它需要在极小体积内,提供接近服务器级的AI吞吐能力,同时具备工业级的接口扩展性。 OrangePi AI S
    发表于 03-10 14:19

    AI需求的爆发加速国产晶振替代进程

    AI爆发推动晶振需求激增,泰晶科技与惠伦晶体凭借高精度、小型化技术抢占光模块核心赛道,高端产品毛利率达50%,加速下迎来黄金发展期。 在
    的头像 发表于 02-12 10:44 1129次阅读

    重磅 | 广东宏展科技推出高发热量步入环境箱,助力AI发展

    重复的环境模拟测试能力,从容应对AI时代的“热浪”挑战,为突破筑牢底层支撑。AI时代的热
    的头像 发表于 02-06 09:08 613次阅读
    重磅 | 广东宏展科技推出高发热量步入<b class='flag-5'>式</b>环境箱,助力<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>发展

    AI爆发催生元器件短缺,智芯谷一站供应如何破局?

    “GPU紧缺”只是AI瓶颈的冰山一角——高端电容供货周期延长至40周、高速内存价格季度涨幅超30%、服务器散热方案重新设计周期压缩至2个月。AI
    的头像 发表于 01-27 11:23 840次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>爆发</b>催生元器件短缺,智芯谷一站<b class='flag-5'>式</b>供应如何破局?

    液冷散热时代:AI服务器如何重构磁元件设计

    随着AI服务器功率密度的快速提升,传统的风冷散热方案在热管理方面逐渐面临挑战。在此背景下,液冷散热技术正加速应用于数据中心,特别是高
    的头像 发表于 11-21 11:42 1077次阅读
    液冷散热时代:<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>如何重构磁元件设计

    觉醒 · AI共生——上海永铭电子2025AI服务器电容应用专题会议圆满落幕

    随着人工智能浪潮席卷全球,AI正以前所未有的速度爆发式增长。在这场决定未来的技术竞速中,稳定、高效、可靠的电力供应是
    的头像 发表于 11-03 14:00 1098次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>觉醒 · <b class='flag-5'>AI</b>共生——上海永铭电子2025<b class='flag-5'>AI</b><b class='flag-5'>服务器</b>电容应用专题会议圆满落幕

    AI 服务器备用电源:高效、可靠与智能的未来保障

    运行,更需在高效率、高可靠性和智能管理方面实现突破,成为支撑 AI 爆发的关键基础设施。 AI 服务
    的头像 发表于 10-09 02:38 5440次阅读

    AI 服务器电源如何迭代升级?

    AI 需求增长的今天,AI 服务器电源正陷入 “性能瓶颈与国产替代并行、场景适配与技术创新交织” 的双重
    的头像 发表于 06-23 14:51 1689次阅读

    AI新基建背后的中国芯力量——中微爱芯服务器芯片国产化替代全景解读

    人工智能(AI)技术正以颠覆性力量重塑全球产业图景,从深度学习的复杂模型训练到生成AI的实时推理,其背后是海量数据与指数级增长的
    的头像 发表于 06-20 13:55 2037次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>新基建背后的中国芯力量——中微爱芯<b class='flag-5'>服务器</b>芯片国产化替代全景解读

    RAKsmart服务器如何赋能AI开发与部署

    AI开发与部署的复杂性不仅体现在算法设计层面,更依赖于底层基础设施的支撑能力。RAKsmart服务器凭借其高性能硬件架构、灵活的资源调度能力以及面向AI场景的深度优化,正在成为企业突破
    的头像 发表于 04-30 09:22 946次阅读

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的突破

    近年来,随着千亿级参数模型的崛起,AI训练对的需求呈现指数级增长。传统服务器架构在应对分布式训练、高并发计算和显存优化等场景时逐渐显露瓶
    的头像 发表于 04-24 09:27 899次阅读