0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

打通AI芯片到大模型训练的算力桥梁,开放加速设计指南强力助推

全球TMT 来源: 全球TMT 作者: 全球TMT 2023-10-17 16:51 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

北京2023年10月17日/美通社/ -- 日前,2023全球AI芯片峰会(GACS 2023)在深圳市举行,AI芯片产业链顶尖企业、专家学者齐聚,围绕生成式AI与大模型算力需求、AI芯片高效落地等产业议题进行研讨分享。

面向大模型时代的计算需求,算力创新已不仅是单个处理器微架构和芯片工艺的突破,而需要产业携手进行软硬件全栈系统架构全面创新。当前各类AI芯片创新仍面临存储墙、功耗墙等架构痼疾,随着开放的通用指令架构、互联总线、AI加速器、开源的操作系统、模型框架、工具链和软件纷纷涌现,开放开源的算力系统创新,已经成为实现AI芯片转化为高效算力的二级引擎。

会上,浪潮信息分享了在开放加速计算系统领域的最新成果《开放加速规范AI服务器设计指南》,通过系统平台层面的技术创新,携手产业上下游加速生成式AI算力产业发展。

wKgZomUuSyuAedvQAAB8OWRGPj8210.jpg


大模型推动算力产业步入系统级创新时代

随着制程工艺逼近天花板,AI芯片正迎来架构创新的黄金时代,诸多创新者正通过越来越广泛的创新思路来绕过摩尔定律濒临极限的瓶颈,围绕架构创新,AI芯片产业正从早期的百花齐放,向更深更多维层面发展。

与此同时,参数量高达数千亿的大模型创新往往需要在成百上千的AI服务器组成的平台上进行训练。面向AIGC的算力能力考量的不仅仅是单一芯片、或者是单一服务器,而是包含计算、存储、网络设备,软件、框架、模型组件,机柜、制冷、供电基础设施等在内的一体化高度集成的智算集群。

因此,要将AI芯片真正转化为大模型算力,需要产业链上下游携手从规模化算力部署的角度进行系统级创新,统筹考虑大模型训练需求特点,设计构建算力系统,以实现全局最优的性能、能效或TCO指标。

开放加速设计指南,打通从芯片到大模型的算力桥梁

2019年,开放计算组织OCP面向大模型训练发布了开放加速计算(OAI)技术标准,旨在促进上下游协同,降低产业创新成本和周期。开放加速计算(OAI)系统架构具备更高的散热和互联能力,可以承载具有更高算力的芯片,同时具备非常强的跨节点扩展能力。因为天然适用于大规模深度学习神经网络,已经在全球范围内得到芯片、系统及应用厂商的广泛参与支持。

大模型训练对开放加速计算系统的总功耗、总线速率、电流密度的需求不断提升,给系统设计带来了巨大的挑战。因此,浪潮信息基于系统研发和大模型工程实践经验,将从AI芯片到大模型算力系统所需完成的体系结构、信号完整性、散热、可靠性、架构设计等大量系统性设计标准进行细化总结,发布了面向生成式AI场景的《开放加速规范AI服务器指南》(以下简称《指南》),提出四大设计原则、全栈设计方法,包括硬件设计参考、管理接口规范和性能测试标准。

wKgaomUuSyuADkWWAACq9tyIEYc269.jpg


《开放加速规范AI服务器指南》全栈设计方法

《开放加速规范AI服务器指南》统筹考虑大模型分布式训练对于计算、网络和存储的需求特点,提供了从节点层到集群层的AI芯片应用部署全栈设计参考。包括各项硬件规范、电气规范、时序规范,并提供管理、故障诊断和网络拓扑设计等软硬协同参考,旨在通过节点层/集群层多维协同设计确保AI服务器节点和服务器集群以超大规模集群互连的大模型训练能力。

wKgZomUuSyyAVh8cAACHyJ1iTGg863.jpg


基于板端QSFP-DD的跨节点互连拓扑

由于架构复杂度高、芯片种类多、高速信号多、系统功耗大等特点,异构加速计算节点常面临故障率高的问题。因此,《指南》提供了详细的系统测试指导,对结构、散热、压力、稳定性、软件兼容性等方面的测试要点进行了全面梳理,帮助用户最大程度降低系统生产、部署、运行过程中的故障风险,提高系统稳定性,减少断点对训练持续性的影响。

wKgaomUuSyyAC7xZAAB-mfj5Y7o590.jpg


OAM互连信号损耗要求

不同于通用计算系统,面向生成式AI的加速计算系统具有软硬件强耦合特性。为了提高开放加速计算系统的算力可用性,《指南》给出了八类AI主流业务和三类AIGC大模型基准测评和调优方法,以确保开放加速计算系统能够有效支撑当前主流大模型的创新应用。

AI芯片厂商可以基于《指南》快速将符合开放加速规范的AI芯片落地成高可用高可靠高性能的大模型算力系统,提高系统适配和集群部署效率,减少芯片合作伙伴在系统层面的研发成本投入,加速生成式AI算力产业的创新步伐。

全栈协同,高效释放大模型创新生产力

目前,浪潮信息已经基于开放加速规范发布了三代AI服务器产品,和10余家芯片伙伴实现了多元AI计算产品的创新研发。多元算力产品方案得到了众多用户的认可,已经在多个智算中心应用落地,成功支持GPT-2、源1.0及实验室自研蛋白质结构预测等多个超大规模巨量模型的高效训练。

同时,为进一步解决大模型算力的系统全栈问题、兼容适配问题、性能优化问题等,浪潮信息基于大模型自身实践与服务客户的专业经验,推出OGAI大模型智算软件栈,能够为大模型业务提供AI算力系统环境部署、算力调度及开发管理的完整软件栈和工具链,帮助更多企业顺利跨越大模型研发应用门槛,充分释放大模型算力价值。

作为全球领先的AI算力基础设施供应商,浪潮信息将通过智算系统软硬件高度协同进行持续创新,携手产业伙伴加速AI算力繁荣发展并充分释放算力生产力,推动实现"助百模,智千行",加速生成式AI产业创新。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    462

    文章

    53537

    浏览量

    459151
  • 半导体
    +关注

    关注

    336

    文章

    29983

    浏览量

    258297
  • AI
    AI
    +关注

    关注

    89

    文章

    38111

    浏览量

    296656
  • 算力
    +关注

    关注

    2

    文章

    1385

    浏览量

    16566
  • 大模型
    +关注

    关注

    2

    文章

    3442

    浏览量

    4967
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    国产AI芯片真能扛住“内卷”?海思昇腾的这波操作藏了多少细节?

    最近行业都在说“AI的命门”,但国产芯片真的能接住这波需求吗? 前阵子接触到海思昇腾910B,实测下来有点超出预期——7nm工艺下
    发表于 10-27 13:12

    与电力的终极博弈,填上了AIDC的“电力黑洞”

    ),专注于提供人工智能训练与推理所需的服务、数据服务和算法服务。AIDC采用异构计算架构,结合GPU、FPGA、ASIC等多种AI加速
    的头像 发表于 09-22 02:43 7375次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片AGI芯片

    能力 2)内存带宽 3)边缘设备的AI 2、架构与形态 1)AGI芯片的基本架构 设计AGI芯片需考虑哪些因素: ①具身智能的大部分功能
    发表于 09-18 15:31

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升还是智力

    持续发展体现在: 1、收益递减 大模型的基础的需要极大的,这首先源于昂贵的高性能AI芯片,然后是宝贵的电力、水等与环境相关的资源。 收益
    发表于 09-14 14:04

    【「AI芯片:科技探索与AGI愿景」阅读体验】+第二章 实现深度学习AI芯片的创新方法与架构

    射频模拟处理器的原型与概念验证 3、光电组合AI芯片 目前最好的应对Transformer模型需要的极高的方法之一就是使用光子计算
    发表于 09-12 17:30

    科技上线赤兔推理引擎服务,创新解锁FP8大模型

    模型轻量化部署方案。用户通过远程平台预置的模型镜像与AI工具,仅需50%的GPU
    的头像 发表于 07-30 21:44 724次阅读

    网络的“神经突触”:AI互联技术如何重构分布式训练范式

    过程中,由于单个AI芯片提升速度无法跟上模型参数的增长速率,再加上庞大的模型参数和
    的头像 发表于 06-08 08:11 7077次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>网络的“神经突触”:<b class='flag-5'>AI</b>互联技术如何重构分布式<b class='flag-5'>训练</b>范式

    即国力,比克电池如何为AI时代“蓄能

    从车路协同破解出行困局,AI医生实现千万级问诊,再到智能工厂的全球零时差协同——人类正加速迈入以定义生产
    的头像 发表于 06-04 14:22 877次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>即国力,比克电池如何为<b class='flag-5'>AI</b>时代“蓄能

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的突破

    近年来,随着千亿级参数模型的崛起,AI训练的需求呈现指数级增长。传统服务器架构在应对分布式训练
    的头像 发表于 04-24 09:27 613次阅读

    RAKsmart智能架构:异构计算+低时延网络驱动企业AI训练范式升级

    AI模型参数量突破万亿、多模态应用爆发的今天,企业AI训练正面临效率与成本的双重挑战。R
    的头像 发表于 04-17 09:29 597次阅读

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    套件2.0,打造了一整套围绕AI开发效率与落地路径展开的“系统性解法”,为开发者提供了AI应用开发工具全家桶。同时,全新升级的旗舰5G智能体AI芯片天玑9400+也为智能体化用户体验提
    发表于 04-13 19:52

    芯片的生态突围与革命

    据的爆发式增长,大芯片已成为科技竞争的核心领域之一。   大芯片的核心应用场景丰富多样。
    的头像 发表于 04-13 00:02 2611次阅读

    DeepSeek推动AI需求:800G光模块的关键作用

    随着人工智能技术的飞速发展,AI需求正以前所未有的速度增长。DeepSeek等大模型训练与推理任务对
    发表于 03-25 12:00

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    让大模型训练更高效,奇异摩尔用互联创新方案定义下一代AI计算

    训练成本,使得企业能够以低成本实现高性能AI模型训练;在推理端,DeepSeek加速AI
    的头像 发表于 02-18 09:19 1918次阅读
    让大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>更高效,奇异摩尔用互联创新方案定义下一代<b class='flag-5'>AI</b>计算