0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度解析176TOPS具身智能盒子与352TOPS PCIe加速卡的硬件设计

行走的小派 来源:行走的小派 作者:行走的小派 2026-04-24 17:39 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着大模型推理、视觉分析和边缘智能应用的增长,算力需求正从云端向边缘及端侧延伸。如何把高性能AI算力融入已有的计算设施,又如何让算力下沉到生产线、机器人内部,是整个产业都在探索的方向。在昇腾生态中,神州鲲泰与迅龙软件正尝试用一种“入端”的方式给出回答——让算力像电流一样流进旧服务器,也流进物理世界的躯体。
双方合作推出的产品有两款:OrangePi AI Duo算力卡和OrangePi AI Station具身智能盒子,均基于昇腾310P处理器,但指向完全不同的部署形态。

合作基础:底座与行走机构的互补
神州鲲泰是华为“鲲鹏+昇腾”双生态的核心参与者,拥有昇腾全栈智算底座、品牌渠道和服务能力。迅龙软件则在嵌入式硬件设计、开源软件开发、ARM架构底层调优及端侧设备量产交付上积累了二十多年经验。如果把昇腾310P比作一台动力充沛的发动机,那么神州鲲泰打造的是整车的底盘和电气架构,而迅龙软件设计的则是能适应数据中心“高速路”和工厂车间“碎石路”的轮子和悬挂。正是这种分工,让昇腾算力既能在标准服务器中即插即用,也能塞进工控机大小的盒子里执行实时任务。


OrangePi AI Duo:存量服务器的算力注入
AI Duo是一张标准PCIe 4.0 x16加速卡,搭载双昇腾310P,INT8算力为352 TOPS。内存部分采用了LPDDR5,速率5500Mbps,相比同算力级别的LPDDR4X方案,带宽提升约30%。在大模型推理的解码阶段,更高的内存带宽有助于降低延迟、提高并发吞吐量。
从产品形态看,该卡为单槽位设计,采用8pin显卡供电,可直接插入现有x86服务器或工作站的空闲PCIe插槽,无需更换整机或调整机房结构。对于当前算力紧张但仍可继续使用的x86服务器群,这种方式实现了一种“即插即用”的利旧升级:一台2U服务器如插满4张AI Duo,理论算力可扩展到1400 TOPS以上。在搜索推荐、内容审核、OCR识别等对并发要求较高的场景中,这种扩容方式能够以较小的改动成本补充AI推理能力。

wKgZO2nrOO-ATXj3AB_oqssFtkM068.png

OrangePi AI Station:面向物理世界的具身智能盒子
如果说OrangePi AI Duo是把算力带入机柜,那么OrangePi AI Station则是将算力直接部署到被控对象的身边。它搭载单颗昇腾310P,INT8算力176 TOPS,最高可选配96GB内存和M.2 NVMe固态硬盘。除了常规的HDMIUSB 3.0与千兆以太网口,它还提供40Pin GPIO扩展接口。正是这组GPIO,让盒子可以直接连接继电器、传感器和工业相机,成为一个端侧“感知-决策-执行”的节点。
在实际应用中,OrangePi AI Station已被尝试部署于多个方向。在具身智能机器人领域,某新能源汽车企业将其用于运行Pi 0.5等大模型,作为机器人的主控模块,处理摄像头画面、自然语言交互以及各类舵机控制。工业视觉检测是另一个落地场景:设备固定在生产流水线一侧,通过工业相机采集PCB板图像,运行轻量化检测模型,并通过GPIO联动报警灯,一旦发现瑕疵立即触发停线,检测延迟被压缩到毫秒级。此外,一些设计师和渲染师将它作为私有AI工作站,在本地运行文生图模型、文生视频等模型,避免设计原稿上传至云端,同时省去排队等待云GPU的时间。

wKgZPGnrONuAN5j3AB-CX0Si8Lw704.png


协同价值:让算力流到需要的地方
从产业落地的角度看,这两种产品代表同一种思路:让算力按照使用场景的实际需求流动。OrangePi AI Duo帮助用户利用现有服务器资产扩充AI推理能力,在一些互联网企业的排序召回模型、高校的大模型实训平台上已经得到验证。OrangePi AI Station则把算力密度和物理接口结合在一起,为工业质检、具身智能、本地渲染等场景提供低时延、数据不离场的方案。
通过“一卡一盒”的组合,昇腾算力得以从数据中心进入边缘现场,从服务器插槽进入机器人的躯干,完成了从基础设施到具身终端的跨越。这种流动,让存量资产重新产生价值,也为端侧应用带来了更低的接入门槛。

对于AI Station的GPIO实时控制延时,以及AI Duo在服务器密集部署下的散热和供电设计,你怎么看?欢迎各位硬件工程师一起探讨方案细节。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    14

    文章

    10357

    浏览量

    91751
  • PCIe
    +关注

    关注

    16

    文章

    1479

    浏览量

    88917
  • 具身智能
    +关注

    关注

    0

    文章

    472

    浏览量

    908
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    边缘AI算力临界点:深度解析176TOPS香橙派AI Station的产业价值

    AGX Orin 150 TOPS+ 本地大模型推理、智能控制、多模态实时交互 迷你AI服务器 176TOPS 意味着OrangePi
    发表于 03-10 14:19

    FPGA硬件加速卡设计原理图:1-基于Xilinx XCKU115的半高PCIe x8 硬件加速卡 PCIe半高 XCKU115-3-FLVF1924-E芯片

    FPGA硬件加速, PCIe半高, XCKU115, 光纤采集, 信号计算板, 硬件加速卡
    的头像 发表于 02-12 09:52 544次阅读
    FPGA<b class='flag-5'>硬件加速卡</b>设计原理图:1-基于Xilinx XCKU115的半高<b class='flag-5'>PCIe</b> x8 <b class='flag-5'>硬件加速卡</b> <b class='flag-5'>PCIe</b>半高 XCKU115-3-FLVF1924-E芯片

    智能发展报告(2025年)》

    智能发展报告(2025年)》由中国信息通信研究院与清华大学电子工程系联合发布,是我国首部系统梳理
    的头像 发表于 02-03 11:17 1239次阅读
    《<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>发展报告(2025年)》

    新品 | LLM-8850 Kit,高性能AI加速卡套件 DinMeter v1.1,1/32DIN标准嵌入式开发板

    LLM-8850KitLLM-8850Kit是一款面向边缘AI与嵌入式计算场景的高性能AI加速卡套件,由LLM-8850CardAI加速卡与LLM-8850PiHat转接板组成。核心加速卡
    的头像 发表于 01-30 16:11 1381次阅读
    新品 | LLM-8850 Kit,高性能AI<b class='flag-5'>加速卡</b>套件 DinMeter v1.1,1/32DIN标准嵌入式开发板

    智能交流会

    龙头企业决策者,围绕 “感知 / 决策 / 控制 / 交互” 核心技术、商业化路径、政策支持等热点展开深度对话,一键嵌入产业生态。 二、展品范围 智能机器人整机: 工业机器人(协作
    发表于 01-22 09:55

    昆仑芯R200 AI加速卡技术规格解析

    昆仑芯R200加速卡基于7nm XPU-R架构,在150W功耗下提供256 TOPS INT8算力,侧重高性能推理。配备最高32GB GDDR6内存(512GB/s带宽)及108路视频解码能力,支持
    的头像 发表于 12-14 13:12 1899次阅读
    昆仑芯R200 AI<b class='flag-5'>加速卡</b>技术规格<b class='flag-5'>解析</b>

    专为边缘而生:深度解析昆仑芯K100 AI加速卡,释放128 TOPS极致能效

    昆仑芯K100边缘AI加速卡以75W超低功耗实现128 TOPS的INT8算力,重新定义边缘推理能效标准。其半高半长设计搭载8GB HBM内存与256GB/s带宽,支持INT8至FP32多精度计算
    的头像 发表于 12-14 11:12 3169次阅读
    专为边缘而生:<b class='flag-5'>深度</b><b class='flag-5'>解析</b>昆仑芯K100 AI<b class='flag-5'>加速卡</b>,释放128 <b class='flag-5'>TOPS</b>极致能效

    2025开放原子开发者大会智能分论坛成功举办

    11月22日,2025开放原子开发者大会——智能分论坛暨机器人工作坊在北京顺利举办。论坛聚焦
    的头像 发表于 11-27 14:57 1368次阅读

    新品 | LLM-8850 Card, AX8850边缘设备AI加速卡

    LLM‑8850 Card是一款面向边缘设备的M.2M-KEY2242 AI加速卡,把42 mm的袖珍体积与AxeraAX8850 SoC的24 TOPS @ INT8算力结合起来,为
    的头像 发表于 09-26 18:18 1390次阅读
    新品 | LLM-8850 Card, AX8850边缘设备AI<b class='flag-5'>加速卡</b>

    写给小白的“智能”入门科普

    最近智能这个概念很火。那么,究竟什么是智能?它包括哪些类别和关键技术?通过这篇文章,我们
    的头像 发表于 08-21 14:15 2940次阅读
    写给小白的“<b class='flag-5'>具</b><b class='flag-5'>身</b><b class='flag-5'>智能</b>”入门科普

    25W 功耗稳跑 104TOPS!H2 加速卡:让智能医疗设备的 AI 分析 “快又稳”

    H2 加速卡的出现,不仅解决了众多智能设备厂商“算力不足、空间受限、稳定性差”的三大难题,更通过医疗级可靠性设计与全链路服务支持,成为了设备厂商打造差异化产品的“秘密武器”。
    的头像 发表于 07-21 18:00 1423次阅读
    25W 功耗稳跑 104<b class='flag-5'>TOPS</b>!H2 <b class='flag-5'>加速卡</b>:让<b class='flag-5'>智能</b>医疗设备的 AI 分析 “快又稳”

    东风汽车加速智能领域技术攻关

    近日,湖北卫视“湖北新闻”和“湖北发布”接连报道东风汽车加速智能领域技术攻关,牵头成立汽车
    的头像 发表于 07-21 14:19 1030次阅读

    算控一体新物种发布!百TOPS算力,地瓜为机器人量产“夯地基”

        电子发烧友网(文/莫婷婷)近期,地瓜机器人正式发布了RDK S100算控一体化机器人开发套件,采用大小脑超级异构,提供80TOPS和128TOPS的算力组合。RDK S100将与
    的头像 发表于 06-18 09:09 1.8w次阅读
    算控一体新物种发布!百<b class='flag-5'>TOPS</b>算力,地瓜为<b class='flag-5'>具</b><b class='flag-5'>身</b>机器人量产“夯地基”

    边缘AI运算革新 DeepX DX-M1 AI加速卡结合Rockchip RK3588多路物体检测解决方案

    DeepX 推出了一款革命性的产品 DeepX DX-M1 AI 推理加速卡 采用 PCIe Gen3 M.2 M-Key 接口,具备高达 25 TOPS 的卓越运算性能,以及高准确度、低功耗、低温
    的头像 发表于 05-06 14:15 1249次阅读
    边缘AI运算革新 DeepX DX-M1 AI<b class='flag-5'>加速卡</b>结合Rockchip RK3588多路物体检测解决方案