0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

芯擎首发5nm“龍鹰二号”! 200TOPS算力+7B大模型,2027年Q1量产适配

章鹰观察 来源:章鹰观察 作者:章鹰 2026-04-27 17:38 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

2026年被视为舱驾一体技术规模化量产的“元年”。传统的智能汽车普遍采用“双芯分立”架构,即智能驾驶和智能座舱各用一颗独立的芯片,这导致了硬件冗余、线束复杂和成本高昂。舱驾一体芯片通过“一颗芯片统驭座舱与智驾”,可以大幅减少芯片、内存、散热、PCB板等元器件的数量。成本的降低才能使高阶智驾和智能座舱功能得以快速向10万到20万元主流车型普及。此外,汽车电子电气架构正从“分布式”向“域集中式”再到“中央集成式”演进,舱驾融合是这一进程的必然趋势。

4月25日,芯擎科技发布5nm车规级舱驾融合芯片“龍鹰二号”,龍鹰二号正是为AI舱驾融合而生。该芯片为12核CPU和10核GPU,AI算力高达200 TOPS,内置多核CPU 360KDMIPS,GPU达到2800GFLOPS,原生支持7B+多模态大模型,具备主动意图感知能力,带宽高达518GB/s,支持LPDDR6/5X/5,彻底消除了多屏交互与AI计算的数据瓶颈。

龍鹰二号更像是在把座舱体验做到极致的同时,预留了支持中高阶智驾的能力。龍鹰二号内存带宽高达 518 GB/s,这意味着在驱动多屏交互、运行超大参数座舱AI模型时,数据吞吐更流畅,彻底消除了数据瓶颈。

芯擎科技CEO汪凯博士表示,“龍鹰二号”将推动汽车智能化从“功能驱动”迈向“AI驱动”,加速实现“无AI不座舱”的下一代体验。“龍鹰二号”可覆盖AI座舱、舱驾融合全场景需求,适配主机厂从入门级到旗舰级的中央计算平台演进。这是芯擎基于百万级座舱SoC的量产经验,坚持全域覆盖、平台兼容的产品策略,率先完成对未来中央计算平台需求的战略占位。

龍鹰二号采用柔性架构,可以灵活适配从入门到旗舰的不同平台,对于不想彻底推翻现有架构的车企来说,升级门槛相对较低。

除了龍鹰二号外,芯擎科技将“龍鹰一号”工业级芯片和天工AI加速芯片及全新的SerDes芯片产品线均在北京车展对外展出。据悉,芯擎科技宣布龍鹰二号芯片最快将于2027年第一季度开始适配。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 5nm
    5nm
    +关注

    关注

    1

    文章

    343

    浏览量

    26672
  • 芯擎科技
    +关注

    关注

    1

    文章

    16

    浏览量

    1362
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    国产RK182X协处理器 + RK3588实测,大模型“极速流畅”

    是瑞微针对端侧AI大模型推出的协处理器,它在性能与成本之间取得了出色平衡。它采用先进3D堆叠封装技术,内嵌2.5GB/5GB高带宽DR
    的头像 发表于 03-13 11:05 521次阅读
    国产RK182X<b class='flag-5'>算</b><b class='flag-5'>力</b>协处理器 + RK3588实测,大<b class='flag-5'>模型</b>“极速流畅”

    边缘AI临界点:深度解析176TOPS香橙派AI Station的产业价值

    48GB / 96GB LPDDR4X的选项,速率高达4266MHz。这一配置在同尺寸设备中不多见,其产业价值体现在三个层面: 1. 大模型的“内存墙”突破 运行一个70亿参数(7B)的模型
    发表于 03-10 14:19

    CES 2026 | 100 TOPSAI模组领衔,美格智能全栈AI解决方案定义智能未来

    要点:SNM983系列:100TOPS的高AI模组,面向“AI原生”时代的架构革命MT200
    的头像 发表于 01-12 17:01 653次阅读
    CES 2026 | 100 <b class='flag-5'>TOPS</b>高<b class='flag-5'>算</b><b class='flag-5'>力</b>AI模组领衔,美格智能全栈AI解决方案定义智能未来

    高达 1570 TOPS!支持多硬盘的高服务器 CSB2-N10

    CSB2-N10服务器内置10个分布式计算节点,单节点可提供6-157TOPS,可选瑞微、能、NVIDIA等平台。支持主流AI大
    的头像 发表于 01-06 16:33 747次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>高达 1570 <b class='flag-5'>TOPS</b>!支持多硬盘的高<b class='flag-5'>算</b><b class='flag-5'>力</b>服务器 CSB2-N10

    高达 1100 TOPS!内置 Jetson AGX Orin 模组的高服务器

    CSB1-N4AGXOrin最高可配置4个NVIDIAJetsonAGXOrin(64GB)计算节点,最高1100TOPS(INT8)。支持主流AI大
    的头像 发表于 12-17 16:31 823次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>高达 1100 <b class='flag-5'>TOPS</b>!内置 Jetson AGX Orin 模组的高<b class='flag-5'>算</b><b class='flag-5'>力</b>服务器

    从云端到边缘:联发科MT8371/MT8391平台实现7B模型本地部署

    的第八代NPU提供高达7/9 TOPS,配备16GB大容量LPDDR5高速内存,支持Transformer/CNN硬件加速,支持本地部署
    发表于 12-15 16:32

    迈向云端巅峰:昆仑K200 AI加速卡全面解读

    昆仑K200作为云端AI加速卡,在K100架构基础上全面升级。其INT8达256 TOPS,配备16GB HBM内存与512GB/s带
    的头像 发表于 12-14 11:17 2296次阅读
    迈向云端<b class='flag-5'>算</b><b class='flag-5'>力</b>巅峰:昆仑<b class='flag-5'>芯</b>K<b class='flag-5'>200</b> AI加速卡全面解读

    基于合众恒跃rk3576 开发板deepseek-r1-1.5b/7b 部署指南

      核心结论:部署流程分为 5 大核心步骤,依次为基础环境安装、模型下载、模型格式转换、部署程序编译、开发板运行测试,1.5b 模型
    的头像 发表于 12-09 07:08 731次阅读
    基于合众恒跃rk3576 开发板deepseek-r<b class='flag-5'>1-1.5b</b>/<b class='flag-5'>7b</b> 部署指南

    MWC Doha 2025|美格智能全新发布60 Tops AI、支持Linux系统的SNM982高AI模组

    QCS8550平台提升25%以上,在模组性能与开放性方面同步提升,现已进入全面量产阶段。全面提升:60Tops赋能端侧AI应用SNM982搭载高通8核OryonCPU(
    的头像 发表于 11-25 16:34 2448次阅读
    MWC Doha 2025|美格智能全新发布60 <b class='flag-5'>Tops</b> AI<b class='flag-5'>算</b><b class='flag-5'>力</b>、支持Linux系统的SNM982高<b class='flag-5'>算</b><b class='flag-5'>力</b>AI模组

    国产AI芯片真能扛住“内卷”?海思昇腾的这波操作藏了多少细节?

    最近行业都在说“是AI的命门”,但国产芯片真的能接住这波需求吗? 前阵子接触到海思昇腾910B,实测下来有点超出预期——7nm工艺下
    发表于 10-27 13:12

    米尔RK3576部署端侧多模态多轮对话,6TOPS驱动30亿参数LLM

    ”?—— 摆脱网络依赖、保护本地隐私、控制硬件成本,让设备真正具备 “看见并对话” 的离线智能,成为边缘 AI 突破的核心卡点。 2024 ,随着边缘 SoC 正式迈入 6 TOPS
    发表于 09-05 17:25

    基于米尔瑞微RK3576开发板的Qwen2-VL-3B模型NPU多模态部署评测

    、隐私与离线可用性上的优势显著,而 RK3576 凭借 8nm 制程、6TOPS自研NPU及动态稀疏化加速引擎,填补了旗舰与主流方案的市场空白。它针对2B-3B参数级模型专项优化,轻量
    发表于 08-29 18:08

    华为宣布开源盘古7B稠密和72B混合专家模型

    关键一步,为全球开发者、企业及研究人员提供了强大的技术支撑。   华为此次开源行动涵盖三大核心板块:盘古Pro MoE 72B模型权重与基础推理代码已率先上线开源平台;基于昇腾的超大规模MoE模型推理代码同步开放;盘古
    的头像 发表于 07-06 05:51 7626次阅读

    华为正式开源盘古7B稠密和72B混合专家模型

    关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。 盘古Pro MoE 72B模型权重、基础推理代码,已正式上线开源平台。 基于昇腾的超大规模MoE模型
    的头像 发表于 06-30 11:19 1445次阅读

    手机AI大模型成焦点,华为领跑Q1中国智能手机市场

    ,真我GT7正式发布,该机搭载联发科最新3nm旗舰天玑9400+,以及7200mAh泰坦电池,并首次在机身内加入了冰感石墨烯材质。近期,多款手机发布正式打响第季中国智能手机市场的争
    的头像 发表于 04-27 07:21 2439次阅读
    手机AI大<b class='flag-5'>模型</b>成焦点,华为领跑<b class='flag-5'>Q1</b>中国智能手机市场