0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

天数智芯天垓100率先完成百亿级参数大模型训练

天数智芯 来源:天数智芯 2023-06-12 15:23 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

6月,在第五届智源大会AI系统分论坛上,上海天数智芯半导体有限公司(以下简称“天数智芯”)对外宣布,在天垓100加速卡的算力集群,基于北京智源人工智能研究院(以下简称“智源研究院”)70亿参数的Aquila语言基础模型,使用代码数据进行继续训练,稳定运行19天,模型收敛效果符合预期,证明天数智芯有支持百亿级参数大模型训练的能力。

在北京市海淀区的大力支持下,智源研究院、天数智芯与爱特云翔共同合作,联手开展基于自主通用GPU的大模型CodeGen(高效编码)项目,通过中文描述来生成可用的C、JavaPython代码以实现高效编码。智源研究院负责算法设计、训练框架开发、大模型的训练与调优,天数智芯负责提供天垓100加速卡、构建算力集群及全程技术支持,爱特云翔负责提供算存网基础硬件及智能化运维服务。

在三方的共同努力下,在基于天垓100加速卡的算力集群上,100B Tokens编程语料、70亿参数量的AquilaCode大模型参数优化工作结果显示,1个Epoch后loss下降到0.8,训练速度达到87K Tokens/s,线性加速比高达95%以上。与国际主流的A100加速卡集群相比,天垓100加速卡集群的收敛效果、训练速度、线性加速比相当,稳定性更优。在HumanEval基准数据集上,以Pass@1作为评估指标,自主算力集群训练出来的模型测试结果达到相近参数级别大模型的SOAT水平,在AI编程能力与国际主流GPU产品训练结果相近。

cfc30840-08ef-11ee-962d-dac502259ad0.png

图 基于天垓100算力集群的AquilaCode大模型训练性能采样

天垓100率先完成百亿级参数大模型训练,迈出了自主通用GPU大模型应用的重要的一步。这一成果充分证明了天垓产品可以支持大模型训练,打通了国内大模型创新发展的关键“堵点”,对于我国大模型自主生态建设、产业链安全保障具有十分重大的意义。

接下来,天数智芯将与合作伙伴们继续深入合作,建设更大规模的天垓100算力集群,完成更大参数规模的大模型训练,以自主通用GPU产品更好支持国内大模型创新应用,进一步夯实我国算力基础,助力人工智能产业自主生态建设。
责任编辑:彭菁

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 编程
    +关注

    关注

    90

    文章

    3723

    浏览量

    97430
  • 模型
    +关注

    关注

    1

    文章

    3813

    浏览量

    52261
  • 天数智芯
    +关注

    关注

    0

    文章

    111

    浏览量

    6671

原文标题:天垓100率先完成百亿级参数大模型训练,天数智芯迎来新的里程碑

文章出处:【微信号:IluvatarCoreX,微信公众号:天数智芯】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    天数Day 0适配MiniMax最新开源M2.7大模型

      4月12 日,MiniMax 最新开源 M2.7 大模型正式发布,凭借自主迭代能力与优异的工程、办公性能引发行业关注。天数与FlagOS 统一开源技术栈合作实现Day0落地,在模型
    的头像 发表于 04-15 15:42 752次阅读

    昆仑率先完成智谱新一代旗舰模型GLM-5.1深度支持

    今日,智谱正式开源新一代旗舰模型GLM-5.1。作为当前全球领先的开源大模型之一,GLM-5.1在长程任务(Long Horizon Task)处理能力上实现了显著突破。模型发布当日,昆仑
    的头像 发表于 04-09 17:31 1220次阅读

    天数通用GPU产品Day 0适配GLM-5.1开源模型

    的重磅开源,不仅刷新了全球开源模型的智能上限,更与天数Day 0原生适配能力深度联动,让这款“能独立工作8小时”的旗舰模型,在天数打造的
    的头像 发表于 04-08 17:14 637次阅读

    天数深度参编的超节点技术体系白皮书正式发布

    率先发布的该领域权威技术白皮书的编纂工作,也印证了企业在高速互联架构领域的技术实力和行业贡献,填补了国内超节点技术权威指引的空白,为智算中心、大模型训练等场景提供关键技术支持,有效提升企业在超算与智算生态中的影响力和标杆作用。
    的头像 发表于 04-07 17:37 1586次阅读

    天数完成阿里云通义千问Qwen3.5系列多模态模型全量适配

    近日,天数携手众智FlagOS 社区完成阿里云通义千问 Qwen3.5 系列多模态模型全量适配,实现模型精度精准对齐与端到端无缝部署,再
    的头像 发表于 03-26 09:25 1544次阅读

    天数重磅公布四代架构路线图,对标英伟达

    电子发烧友综合报道 1月26日,天数“智启程”合作伙伴大会盛大启幕。会上,天数不仅公布了四代架构路线图,还发布了“彤央”边端产品,
    的头像 发表于 01-27 16:24 9147次阅读
    <b class='flag-5'>天数</b>智<b class='flag-5'>芯</b>重磅公布四代架构路线图,对标英伟达

    欣旺达第100万颗684Ah叠片电顺利下线

    12月23日,欣旺达第100万颗684Ah叠片电顺利下线。自今年9月684Ah叠片电正式启动量产以来,欣旺达仅用3个月时间完成百规模
    的头像 发表于 12-30 16:25 1017次阅读

    在Ubuntu20.04系统中训练神经网络模型的一些经验

    , batch_size=512, epochs=20)总结 这个核心算法中的卷积神经网络结构和训练过程,是用来对MNIST手写数字图像进行分类的。模型将图像作为输入,通过卷积和池化层提取图像的特征,然后通过全连接层进行分类预测。训练
    发表于 10-22 07:03

    借助NVIDIA Megatron-Core大模型训练框架提高显存使用效率

    随着模型规模迈入百亿、千亿甚至万亿参数级别,如何在有限显存中“塞下”训练任务,对研发和运维团队都是巨大挑战。NVIDIA Megatron-Core 作为流行的大
    的头像 发表于 10-21 10:55 1385次阅读
    借助NVIDIA Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>框架提高显存使用效率

    万亿参数!元脑企智一体机率先支持Kimi K2大模型

    北京2025年7月21日 /美通社/ -- 浪潮信息宣布元脑企智一体机已率先完成对Kimi K2 万亿参数模型的适配支持,并实现单用户70 tokens/s的流畅输出速度,为企业客户
    的头像 发表于 07-22 09:27 673次阅读
    万亿<b class='flag-5'>参数</b>!元脑企智一体机<b class='flag-5'>率先</b>支持Kimi K2大<b class='flag-5'>模型</b>

    沐曦MXMACA软件平台在大模型训练方面的优化效果

    在如今的人工智能浪潮中,大规模语言模型(上百亿乃至千亿参数)正迅速改变着我们的工作和生活。然而,训练这些庞大的模型往往面临“算力不足、显存不
    的头像 发表于 07-03 14:09 2405次阅读
    沐曦MXMACA软件平台在大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>方面的优化效果

    率先展开文心系列模型深度技术合作

    6月30日,百度正式开源文心大模型4.5系列等10款模型,并实现预训练权重和推理代码的完全开源,兆率先与文心系列
    的头像 发表于 07-01 10:49 1072次阅读

    Say Hi to ERNIE!Imagination GPU率先完成文心大模型的端侧部署

    ImaginationTechnologies宣布率先完成百度文心大模型(ERNIE4.5开源版)在其GPU硬件上的端侧部署。适配完成后,开发者可在搭载ImaginationGPU的设
    的头像 发表于 07-01 08:17 1087次阅读
    Say Hi to ERNIE!Imagination GPU<b class='flag-5'>率先</b><b class='flag-5'>完成</b>文心大<b class='flag-5'>模型</b>的端侧部署

    MediaTek玑9400率先完成阿里Qwen3模型部署

    通义大模型团队在玑 9400 旗舰移动平台上率先完成 Qwen3(千问 3)的端侧部署。未来,搭载玑 9400 移动平台的设备可充分发挥
    的头像 发表于 05-08 10:11 1486次阅读

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的算力突破

    近年来,随着千亿参数模型的崛起,AI训练对算力的需求呈现指数增长。传统服务器架构在应对分布式训练、高并发计算和显存优化等场景时逐渐显露瓶
    的头像 发表于 04-24 09:27 898次阅读