0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

猎户星空发布Orion-MoE 8×7B大模型及AI数据宝AirDS

科技绿洲 来源:网络整理 作者:网络整理 2024-11-29 13:57 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

近日,猎户星空携手聚云科技在北京共同举办了一场发布会。会上,猎户星空正式揭晓了其自主研发的Orion-MoE 8×7B大模型,并与聚云科技联合推出了基于该大模型的数据服务——AI数据宝AirDS。

Orion-MoE 8×7B是猎户星空精心打造的开源混合架构专家大模型,该模型拥有高达8×70亿的参数规模,采用了先进的生成式混合专家设计。这一设计使得Orion-MoE 8×7B在性能上有了显著提升,能够轻松应对多种复杂任务。

值得注意的是,Orion-MoE 8×7B大模型不仅支持中文,还涵盖了英语、日语、韩语等多种语言,满足了全球化市场的需求。

与此同时,猎户星空与聚云科技共同推出的AI数据宝AirDS,则是基于Orion-MoE 8×7B大模型的数据服务。这一服务将为用户提供更加高效、便捷的数据处理和分析能力,助力企业在数字化转型的道路上迈出坚实的一步。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据
    +关注

    关注

    8

    文章

    7349

    浏览量

    95027
  • AI
    AI
    +关注

    关注

    91

    文章

    41198

    浏览量

    302629
  • 大模型
    +关注

    关注

    2

    文章

    3787

    浏览量

    5273
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    芯擎首发5nm“龍鹰二号”! 200TOPS算力+7B模型,2027年Q1量产适配

    ,GPU达到2800GFLOPS,原生支持7B+多模态大模型,具备主动意图感知能力,带宽高达518GB/s,支持LPDDR6/5X/5,彻底消除了多屏交互与AI计算的数据瓶颈。
    的头像 发表于 04-27 17:38 6421次阅读
    芯擎首发5nm“龍鹰二号”! 200TOPS算力+<b class='flag-5'>7B</b>大<b class='flag-5'>模型</b>,2027年Q1量产适配

    海光DCU完成Qwen3.5多模态MoE模型全量适配

    近日,海光DCU完成Qwen3.5-397B MoE旗舰多模态模型、Qwen3.5-35B-A3B MoE多模态
    的头像 发表于 03-26 09:35 737次阅读

    模型推理服务的弹性部署与GPU调度方案

    7B 模型 FP16 推理需要约 14GB 显存,70B 模型需要 140GB+,KV Cache 随并发数线性增长,显存碎片化导致实际利用率不足 60%。
    的头像 发表于 03-03 09:29 410次阅读

    使用NORDIC AI的好处

    CPU 快 15× 能效最高可比最近的竞品 NPU 好 8×,推理速度快 7×。[Axon NPU 技术页] 开发门槛低、工具链完整 Nordic Edge AI Lab :只需准备好
    发表于 01-31 23:16

    端侧大模型上车:从“语音助手”到“车内 AI 智能体”的跃迁革命

    生活空间”的可能性。当7B级大模型在车规级芯片上流畅运行,当多模态交互(语音+视觉+传感)成为标配,车载助手已从“被动响应”升级为“主动决策”,成为车内真正的“数字大脑”。这场由端侧大模型驱动的变革,正推动主机厂将“支持
    的头像 发表于 01-13 09:10 703次阅读

    从云端到边缘:联发科MT8371/MT8391平台实现7B模型本地部署

    的第八代NPU提供高达7/9 TOPS算力,配备16GB大容量LPDDR5高速内存,支持Transformer/CNN硬件加速,支持本地部署7B大语言模型,显著提升生成式AI任务(如图
    发表于 12-15 16:32

    NVIDIA Grace Blackwell平台实现MoE模型性能十倍提升

    如今,几乎任一前沿模型的内部结构都采用混合专家 (MoE) 模型架构,这种架构旨在模拟人脑的高效运作机制。
    的头像 发表于 12-13 09:23 1070次阅读
    NVIDIA Grace Blackwell平台实现<b class='flag-5'>MoE</b><b class='flag-5'>模型</b>性能十倍提升

    基于合众恒跃rk3576 开发板deepseek-r1-1.5b/7b 部署指南

      核心结论:部署流程分为 5 大核心步骤,依次为基础环境安装、模型下载、模型格式转换、部署程序编译、开发板运行测试,1.5b 模型适配 4+32G 开发板,
    的头像 发表于 12-09 07:08 738次阅读
    基于合众恒跃rk3576 开发板deepseek-r1-1.5<b class='flag-5'>b</b>/<b class='flag-5'>7b</b> 部署指南

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片

    、分布式群体智能 1)物联网AGI系统 优势: 组成部分: 2)分布式AI训练 7、发展重点:基于强化学习的后训练与推理 8、超越大模型:神经符号计算 三、AGI芯片的实现 1、技术需
    发表于 09-18 15:31

    华为宣布开源盘古7B稠密和72B混合专家模型

    关键一步,为全球开发者、企业及研究人员提供了强大的技术支撑。   华为此次开源行动涵盖三大核心板块:盘古Pro MoE 72B模型权重与基础推理代码已率先上线开源平台;基于昇腾的超大规模MoE
    的头像 发表于 07-06 05:51 7628次阅读

    华为正式开源盘古7B稠密和72B混合专家模型

    关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。 基于昇腾的超大规模
    的头像 发表于 06-30 11:19 1446次阅读

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期发布了 Cosmos Reason-1 的 7B 和 56B 两款多模态大语言模型 (MLLM),它们经过了“物理 AI
    的头像 发表于 06-04 13:43 1184次阅读

    代码革命的先锋:aiXcoder-7B模型介绍

       国内开源代码大模型 4月9日aiXcoder宣布正式开源其7B模型Base版,仅仅过去一个礼拜,aiXcoder-7B在软件源代码托管服务平台GitHub上的Star数已超过2
    的头像 发表于 05-20 14:41 956次阅读
    代码革命的先锋:aiXcoder-<b class='flag-5'>7B</b><b class='flag-5'>模型</b>介绍

    NVIDIA使用Qwen3系列模型的最佳实践

    阿里巴巴近期发布了其开源的混合推理大语言模型 (LLM) 通义千问 Qwen3,此次 Qwen3 开源模型系列包含两款混合专家模型 (MoE
    的头像 发表于 05-08 11:45 3219次阅读
    NVIDIA使用Qwen3系列<b class='flag-5'>模型</b>的最佳实践

    中星微发布最新一代AI芯片“星光智能五号”

    近日,在福州举行的第八届数字中国建设峰会上,中星微宣布其最新一代AI芯片“星光智能五号”在“数字感知芯片技术全国重点实验室”成功运行Deepseek 7B/8B/16B
    的头像 发表于 05-06 16:03 1548次阅读