0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

摩尔线程发布SimuMax v1.1:从仿真工具升级为全栈工作流平台,助力大模型训练提效

摩尔线程 来源:厂商供稿 作者:摩尔线程 2026-01-09 09:17 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近日,摩尔线程正式发布开源大模型分布式训练仿真工具SimuMax的1.1版本。该版本在完整继承v1.0高精度仿真能力的基础上,实现了从单一工具到一体化全栈工作流平台的重要升级,为大模型训练的仿真与调优提供系统化支持。


本次更新聚焦三大核心创新:用户友好的可视化配置界面、智能并行策略搜索,以及融合计算与通信效率建模的System-Config生成流水线。新版本同时提升了对主流训练框架Megatron-LM的兼容性,并增强了对混合并行训练中复杂通信行为的建模精度,使仿真环境更贴近真实生产场景。

SimuMax是一款专为大语言模型(LLM)分布式训练负载设计的仿真模拟工具,可为单卡到万卡集群提供仿真支持。它无需实际执行完整训练过程,即可高精度模拟训练中的显存使用和性能表现,帮助用户深入洞察训练效率,探索提升计算效能的优化途径。

平台升级:从精准仿真到智能工作流

SimuMax v1.1在高精度仿真能力的基础上,通过以下多项功能构建了更完整、更智能的工作流:
·智能并行策略搜索:引入策略搜索支持,自动探索并识别更优的并行化及执行策略,降低调参成本,提升训练效率;
·系统配置生成流水线:新增系统配置文件生成流水线,包含计算效率与通信效率的刻画,以实现更真实的系统级建模;
·增强的框架兼容性与优化:新增对Megatron-LM v0.14的支持,主要适配了新版本Moe Router的显存优化特性;
·精细化带宽争用建模:专门优化了在专家并行(EP)/张量并行(TP)与数据并行(DP)混合场景下的节点间网络带宽竞争模拟,提升大规模集群仿真的准确性。

体验革新:可视化界面,赋能极简操作

SimuMax v1.1引入了直观的可视化配置界面。用户通过简单交互,即可快速完成从单卡到万卡集群的训练任务定义,极大简化工作流,使工程师更专注于训练策略设计与深层性能优化,提升模型研发与调优效率。a79f3e32-ec82-11f0-92de-92fbcf53809c.png

图示:SimuMax v1.1的可视化配置界面

快速开始:四步启动高效仿真
开发者可通过以下步骤,快速体验SimuMax:

克隆仓库:
·gitclonegit@github.com:MooreThreads/SimuMax.git
·cdSimuMax

安装Python包:
·pip install -rrequirements.txt
·pip install -v -e .

运行示例:
参考项目中的教程和示例(如examples/perf_llama3_8b_tp1_pp2.py),即可开始使用SimuMax进行训练仿真。

启动SimuMax应用:
开发者可以选择启动SimuMax应用,访问交互式配置界面。
·cdapp
·bash install.sh
·streamlit run streamlit_app.py

持续优化与生态共建

SimuMax已在GitHub全面开源,开发者可访问仓库获取源代码、详细文档和示例。摩尔线程鼓励开发者通过提交Issue报告问题或通过Pull Request贡献代码,共同促进SimuMax功能的完善和软件生态的繁荣。

·SimuMax GitHub开源地址:https://github.com/MooreThreads/SimuMax
·SimuMax v1.1版本:https://github.com/MooreThreads/SimuMax/releases/tag/v1.1

摩尔线程始终致力于为开发者提供高效、创新的软件工具链。SimuMax的发布,为大模型分布式训练提供了从可视化配置、自动化策略推荐到高精度仿真的完整工作流,助力AI产业提升算力利用率,探索更高效、更智能的训练范式。

未来,SimuMax团队将持续迭代,计划进一步扩展平台能力,包括支持ViT模型、引入大规模训练的数据并行(DP)衰减估计,以及支持计算通信重叠(TP/EP Overlap)模拟等功能,不断突破训练仿真优化的技术边界。

关于摩尔线程
摩尔线程以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 摩尔线程
    +关注

    关注

    2

    文章

    279

    浏览量

    6477
  • 大模型
    +关注

    关注

    2

    文章

    3659

    浏览量

    5196
  • LLM
    LLM
    +关注

    关注

    1

    文章

    346

    浏览量

    1337

原文标题:摩尔线程发布SimuMax v1.1:从仿真工具升级为全栈工作流平台,助力大模型训练提效

文章出处:【微信号:moorethreads,微信公众号:摩尔线程】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    开发工作流创建工作流

    择要使用的节点。 2、将节点按任务流程相连接。 3、配置节点的输入和输出参数 测试并发布工作流 开发者如需在智能体内使用该工作流,必须先完成工作流的上架。 1、单击【试运行】,运行成功
    发表于 03-10 10:05

    摩尔线程 × 五一视界|共建国产化的物理AI仿真体系

    线程以旗舰级AI训推一体全功能GPU MTT S5000的强劲算力,深度赋能五一视界下一代智驾仿真平台 SimOne 4.0,双方已高效完成系统性适配与深度优化。 通过打通模型感知
    的头像 发表于 02-24 10:18 636次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b> × 五一视界|共建<b class='flag-5'>全</b><b class='flag-5'>栈</b>国产化的物理AI<b class='flag-5'>仿真</b>体系

    国产AI Coding上线:摩尔线程+硅基流动+智谱,强强联合!

    摩尔线程今日正式推出AI Coding Plan 智能编程服务。作为首个基于国产全功能 GPU 算力底座构建的智能开发解决方案,该服务以 MTT S5000 强劲的精度计算能力核心
    的头像 发表于 02-03 17:07 1502次阅读
    <b class='flag-5'>全</b><b class='flag-5'>栈</b>国产AI Coding上线:<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>+硅基流动+智谱,强强联合!

    《电子发烧友电子设计周报》聚焦硬科技领域核心价值 26年第1期:2026.1.4--2025.1.16

    的 Isaac Lab-Arena,以及边缘到云端计算框架 OSMO,以简化机器人训练工作流。 29、摩尔线程发布
    发表于 01-16 20:20

    国产算力首证具身大脑模型训练实力:摩尔线程联合智源研究院完成RoboBrain 2.5流程训练

    智算集群 ,成功完成智源自研具身大脑模型 RoboBrain 2.5 的 流程训练 。 这是行业内首次验证国产算力集群在具身智能大模型训练
    的头像 发表于 01-14 09:05 516次阅读
    国产算力首证具身大脑<b class='flag-5'>模型</b><b class='flag-5'>训练</b>实力:<b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>联合智源研究院完成RoboBrain 2.5<b class='flag-5'>全</b>流程<b class='flag-5'>训练</b>

    摩尔线程在MDC 2025重磅发布创新成果

    12月20日,在首届MUSA开发者大会上,摩尔线程创始人、董事长兼CEO张建中发表主题演讲,系统展示了以自主MUSA统一架构核心的创新
    的头像 发表于 12-22 18:04 1466次阅读

    摩尔线程新一代大语言模型对齐框架URPO入选AAAI 2026

    近日,摩尔线程在人工智能前沿领域取得重要突破,其提出的新一代大语言模型对齐框架——URPO统一奖励与策略优化,相关研究论文已被人工智能领域的国际顶级学术会议AAAI 2026收录。这一成果标志着
    的头像 发表于 11-17 16:03 503次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>新一代大语言<b class='flag-5'>模型</b>对齐框架URPO入选AAAI 2026

    摩尔线程发布模型训练仿真工具SimuMax v1.0

    近日,摩尔线程正式发布并开源大模型分布式训练仿真工具
    的头像 发表于 09-11 18:19 3723次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b><b class='flag-5'>发布</b>大<b class='flag-5'>模型</b><b class='flag-5'>训练</b><b class='flag-5'>仿真</b><b class='flag-5'>工具</b><b class='flag-5'>SimuMax</b> <b class='flag-5'>v</b>1.0

    摩尔线程发布Torch-MUSA v2.1.1版本

    近日,摩尔线程发布其面向PyTorch深度学习框架的MUSA扩展库——Torch-MUSA v2.1.1。该版本在v2.1.0的基础上,进一
    的头像 发表于 09-10 11:02 1050次阅读

    摩尔线程发布图形显卡驱动程序v310.120

    8月20日,摩尔线程发布版本号为v310.120的图形显卡驱动程序。本次更新带来多项重大技术升级:新增对Windows 11 24H2版本的
    的头像 发表于 08-21 16:07 1406次阅读

    摩尔线程吴庆详解 MUSA 软件:以技术创新释放 KUAE 集群潜能,引领 GPU 计算新高度​

    的分享。GPU 计算软件开发总监吴庆登上讲台,发表了题为《摩尔线程 MUSA 软件助力 KUAE 集群释放无限潜能》的演讲。他专业视角出
    的头像 发表于 07-28 13:47 6107次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>吴庆详解 MUSA 软件<b class='flag-5'>栈</b>:以技术创新释放 KUAE 集群潜能,引领 GPU 计算新高度​

    摩尔线程亮相WAIC 2025:以“AI工厂”理念驱动算力进化,AI应用赋能千行百业

    模型的“超级工厂”。此次参会不仅彰显了摩尔线程在AI基础设施领域的系统性创新,更通过多行业案例展现了国产GPU技术的广泛应用前景。     首“AI工厂”理念:系统性创新突破大
    的头像 发表于 07-28 11:34 2144次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>亮相WAIC 2025:以“AI工厂”理念驱动算力进化,<b class='flag-5'>全</b><b class='flag-5'>栈</b>AI应用赋能千行百业

    摩尔线程“AI工厂”:五大核心技术支撑,打造大模型训练超级工厂

    演讲中表示,应对生成式AI爆发式增长下的大模型训练效率瓶颈,摩尔线程将通过系统级工程创新,构建新一代AI
    的头像 发表于 07-28 11:28 4562次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>“AI工厂”:五大核心技术支撑,打造大<b class='flag-5'>模型</b><b class='flag-5'>训练</b>超级工厂

    摩尔线程GPU成功适配Deepseek-V3-0324大模型

    架构和全功能GPU的强大技术实力,摩尔线程迅速响应并完成了对DeepSeek-V3的无缝升级,实现了零报错、零兼容性问题的光速部署,充分展现了摩尔
    的头像 发表于 03-31 11:34 1296次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>GPU成功适配Deepseek-<b class='flag-5'>V</b>3-0324大<b class='flag-5'>模型</b>

    摩尔线程GPU原生FP8计算助力AI训练

    并行训练和推理,显著提升了训练效率与稳定性。摩尔线程是国内率先原生支持FP8计算精度的国产GPU企业,此次开源不仅为AI训练和推理提供了全新
    的头像 发表于 03-17 17:05 1532次阅读
    <b class='flag-5'>摩尔</b><b class='flag-5'>线程</b>GPU原生FP8计算<b class='flag-5'>助力</b>AI<b class='flag-5'>训练</b>