0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

天数智芯天垓100率先完成百亿级参数大模型训练

天数智芯 来源:天数智芯 2023-06-12 15:23 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

6月,在第五届智源大会AI系统分论坛上,上海天数智芯半导体有限公司(以下简称“天数智芯”)对外宣布,在天垓100加速卡的算力集群,基于北京智源人工智能研究院(以下简称“智源研究院”)70亿参数的Aquila语言基础模型,使用代码数据进行继续训练,稳定运行19天,模型收敛效果符合预期,证明天数智芯有支持百亿级参数大模型训练的能力。

在北京市海淀区的大力支持下,智源研究院、天数智芯与爱特云翔共同合作,联手开展基于自主通用GPU的大模型CodeGen(高效编码)项目,通过中文描述来生成可用的C、JavaPython代码以实现高效编码。智源研究院负责算法设计、训练框架开发、大模型的训练与调优,天数智芯负责提供天垓100加速卡、构建算力集群及全程技术支持,爱特云翔负责提供算存网基础硬件及智能化运维服务。

在三方的共同努力下,在基于天垓100加速卡的算力集群上,100B Tokens编程语料、70亿参数量的AquilaCode大模型参数优化工作结果显示,1个Epoch后loss下降到0.8,训练速度达到87K Tokens/s,线性加速比高达95%以上。与国际主流的A100加速卡集群相比,天垓100加速卡集群的收敛效果、训练速度、线性加速比相当,稳定性更优。在HumanEval基准数据集上,以Pass@1作为评估指标,自主算力集群训练出来的模型测试结果达到相近参数级别大模型的SOAT水平,在AI编程能力与国际主流GPU产品训练结果相近。

cfc30840-08ef-11ee-962d-dac502259ad0.png

图 基于天垓100算力集群的AquilaCode大模型训练性能采样

天垓100率先完成百亿级参数大模型训练,迈出了自主通用GPU大模型应用的重要的一步。这一成果充分证明了天垓产品可以支持大模型训练,打通了国内大模型创新发展的关键“堵点”,对于我国大模型自主生态建设、产业链安全保障具有十分重大的意义。

接下来,天数智芯将与合作伙伴们继续深入合作,建设更大规模的天垓100算力集群,完成更大参数规模的大模型训练,以自主通用GPU产品更好支持国内大模型创新应用,进一步夯实我国算力基础,助力人工智能产业自主生态建设。
责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编程
    +关注

    关注

    90

    文章

    3707

    浏览量

    96764
  • 模型
    +关注

    关注

    1

    文章

    3648

    浏览量

    51712
  • 天数智芯
    +关注

    关注

    0

    文章

    100

    浏览量

    6500

原文标题:天垓100率先完成百亿级参数大模型训练,天数智芯迎来新的里程碑

文章出处:【微信号:IluvatarCoreX,微信公众号:天数智芯】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    , batch_size=512, epochs=20)总结 这个核心算法中的卷积神经网络结构和训练过程,是用来对MNIST手写数字图像进行分类的。模型将图像作为输入,通过卷积和池化层提取图像的特征,然后通过全连接层进行分类预测。训练
    发表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型训练框架提高显存使用效率

    随着模型规模迈入百亿、千亿甚至万亿参数级别,如何在有限显存中“塞下”训练任务,对研发和运维团队都是巨大挑战。NVIDIA Megatron-Core 作为流行的大
    的头像 发表于 10-21 10:55 783次阅读
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>框架提高显存使用效率

    万亿参数!元脑企智一体机率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ -- 浪潮信息宣布元脑企智一体机已率先完成对Kimi K2 万亿参数模型的适配支持,并实现单用户70 tokens/s的流畅输出速度,为企业客户
    的头像 发表于 07-22 09:27 402次阅读
    万亿<b class='flag-5'>参数</b>!元脑企智一体机<b class='flag-5'>率先</b>支持Kimi K2大<b class='flag-5'>模型</b>

    沐曦MXMACA软件平台在大模型训练方面的优化效果

    在如今的人工智能浪潮中,大规模语言模型(上百亿乃至千亿参数)正迅速改变着我们的工作和生活。然而,训练这些庞大的模型往往面临“算力不足、显存不
    的头像 发表于 07-03 14:09 1702次阅读
    沐曦MXMACA软件平台在大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>方面的优化效果

    率先展开文心系列模型深度技术合作

    6月30日,百度正式开源文心大模型4.5系列等10款模型,并实现预训练权重和推理代码的完全开源,兆率先与文心系列
    的头像 发表于 07-01 10:49 783次阅读

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端侧部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5开源版)在其GPU硬件上的端侧部署。适配完成后,开发者可在搭载ImaginationGPU的设
    的头像 发表于 07-01 08:17 772次阅读
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b><b class='flag-5'>完成</b>文心大<b class='flag-5'>模型</b>的端侧部署

    MediaTek玑9400率先完成阿里Qwen3模型部署

    通义大模型团队在玑 9400 旗舰移动平台上率先完成 Qwen3(千问 3)的端侧部署。未来,搭载玑 9400 移动平台的设备可充分发挥
    的头像 发表于 05-08 10:11 941次阅读

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的算力突破

    近年来,随着千亿参数模型的崛起,AI训练对算力的需求呈现指数增长。传统服务器架构在应对分布式训练、高并发计算和显存优化等场景时逐渐显露瓶
    的头像 发表于 04-24 09:27 612次阅读

    首创开源架构,玑AI开发套件让端侧AI模型接入得心应手

    PIX GP模型的整合,并且针对模型进行全链路微秒分析,以确保最佳的端到端性能表现。在双方的整个合作流程中,开发效率提升了30%。 玑AI生态同样拓展到了智能座舱领域。联发科和绝影
    发表于 04-13 19:52

    训练好的ai模型导入cubemx不成功怎么处理?

    训练好的ai模型导入cubemx不成功咋办,试了好几个模型压缩了也不行,ram占用过大,有无解决方案?
    发表于 03-11 07:18

    完成DeepSeek-R1大模型本地化部署

    近日,行正式宣布完成 DeepSeek-R1 大模型本地化部署,实现在多场景、多产品中应用。解锁“”玩法,开启“”未来!
    的头像 发表于 02-24 15:17 1143次阅读

    天数加速DeepSeek全系列模型适配

    天数正携手合作伙伴,以惊人的速度推进DeepSeek全系列模型的适配与上线工作。目前,多款DeepSeek模型服务已正式登陆各大平台,为用户带来多样化的选择。 其中,DeepSee
    的头像 发表于 02-10 15:30 1408次阅读

    昆仑率先完成Deepseek训练推理全版本适配

    本文是昆仑适配DeepSeek系列推文第一篇,将于近期分别推出在昆仑P800上进行DeepSeek-V3/R1推理、训练的深度文章,干货满满、持续关注!
    的头像 发表于 02-06 15:13 2255次阅读
    昆仑<b class='flag-5'>芯</b><b class='flag-5'>率先</b><b class='flag-5'>完成</b>Deepseek<b class='flag-5'>训练</b>推理全版本适配

    天数与无问穹合作突破千卡集群训练优化

    近日,天数与无问穹宣布达成深度合作,并在千卡集群训练优化领域取得了重大技术突破。这一合作基于天数
    的头像 发表于 01-21 14:31 1356次阅读

    紫光国翼云完成兼容互认证

    近日,紫光国全国产服务器内存模组SCC32GP12C2F1C-32AA与翼云CTyunOS系统V2.0完成了产品兼容性认证,取得互认证明。
    的头像 发表于 01-06 16:55 1084次阅读