日本多企业联合科研组于昨日宣布推出Fugaku-LLM大模型,此模型基于Arm架构的“富岳”超级计算机进行培训,呈现出显著特性。
Fugaku-LLM模型项目自2023年5月起启动,初始参加方包括富士通、东京工业大学、日本东北大学及日本理化学研究所(简称理研)。至同年8月,又有三家合作伙伴——名古屋大学、CyberAgent(Cygames母公司)以及HPC-AI领域创新企业Kotoba Technologies加入。
在昨日公布的新闻稿中,研究团队表示他们成功发掘了富岳超级计算机的潜能,使矩阵乘法运算速度提升六倍,通信速度提高三倍,从而证实大型纯CPU超级计算机同样适用于大模型训练。
Fugaku-LLM模型参数规模达13B,成为日本国内最大的大型语言模型。该模型利用13824个富岳超级计算机节点,在3800亿个Token上进行训练,其中60%为日语数据,其余40%涵盖英语、数学、代码等内容。
研究团队表示,Fugaku-LLM模型能够在交流过程中自然运用日语敬语等特殊表达方式。
在测试结果方面,该模型在日语MT-Bench模型基准测试中的平均得分高达5.5,位列基于日本语料资源的开放模型之首;同时,在人文社科类别的测试中获得9.18的高分。
目前,Fugaku-LLM模型已在GitHub和Hugging Face平台公开发布,外部研究人员和工程师可以在遵循许可协议的前提下,将该模型应用于学术和商业领域。
-
cpu
+关注
关注
68文章
11218浏览量
222954 -
超级计算机
+关注
关注
2文章
479浏览量
43153 -
大模型
+关注
关注
2文章
3442浏览量
4968
发布评论请先 登录
NVIDIA TensorRT LLM 1.0推理框架正式上线
大规模专家并行模型在TensorRT-LLM的设计
米尔RK3576部署端侧多模态多轮对话,6TOPS算力驱动30亿参数LLM
3万字长文!深度解析大语言模型LLM原理
中国智能算力规模增长将超40%
Votee AI借助NVIDIA技术加速方言小语种LLM开发
欧洲借助NVIDIA Nemotron优化主权大语言模型
AI原生架构升级:RAKsmart服务器在超大规模模型训练中的算力突破
详解 LLM 推理模型的现状
新品 | Module LLM Kit,离线大语言模型推理模块套装
无法在OVMS上运行来自Meta的大型语言模型 (LLM),为什么?
新品| LLM630 Compute Kit,AI 大语言模型推理开发平台

日本超算富岳助力构建大规模语言模型Fugaku-LLM
评论