0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

4台树莓派5跑动大模型!DeepSeek R1分布式实战!

上海晶珩电子科技有限公司 2025-03-24 14:50 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

导语

“用4台树莓派5组网,轻松运行大模型——这可能是2025年最颠覆认知的开源AI项目!” GitHub明星项目distributed-llama最新实战案例曝光:通过独创的动态模型切片技术,成功在4台树莓派5(8GB内存)上运行DeepSeek R1 Distill 8B模型,推理速度达6.43 tokens/s,功耗仅20W!本文将深入解析: 树莓派集群的核心技术架构 | 零门槛部署全流程 | 社区实测性能报告 文末附树莓派专用配置模板,让旧设备秒变AI算力节点!

项目背景

distributed-llama是由开发者 Bartłomiej Tadych 发起的一项开源倡议,旨在通过分布式计算技术,将家庭闲置设备(如树莓派、旧笔记本、手机等)转化为高效的 AI 推理集群,从而大幅降低运行百亿参数大模型的门槛。

为何需要分布式LLM?

传统的大语言模型(如Llama、DeepSeek)推理严重依赖高端显卡(如NVIDIA A100/H100),硬件成本高昂且能效比低下。而分布式LLM通过 动态模型切片 和 跨设备协同计算,将单一设备的算力需求分散到多台设备,实现:

低成本:利用闲置设备的算力“边角料”替代昂贵显卡

高扩展性:通过增加节点数量线性提升推理速度

跨平台兼容:支持从树莓派(ARM)到旧x86设备的混合组网

核心突破

项目自2024年发布以来,通过 Tensor并行架构 和 Q80浮点压缩技术,成功将多个开源大模型部署到树莓派5,MAC电脑,PC组成的集群中。

46237eb0-087c-11f0-9434-92fbcf53809c.png

技术解析

1.动态模型切片

自动负载均衡:根据设备数量(需满足2^n)将模型拆分为独立计算单元

树莓派专属优化:针对ARM架构优化算子,CPU利用率提升40%

内存压缩技术:Q80浮点格式使单节点内存占用降低至2.4GB(原模型6.32GB)

2.高效通信协议

低延迟同步:千兆以太网下KV Cache同步延迟<60ms

容错机制:任意节点掉线自动触发计算任务重分配

3.散热方案:

加装Pi5散热风扇(树莓派5满负载温度可降低15℃)

46409c16-087c-11f0-9434-92fbcf53809c.jpg

项目展示

Model:deepseek_r1_distill_llama_8b_q40

Version:0.12.2

4656ff6a-087c-11f0-9434-92fbcf53809c.png

2 xRaspberry Pi5 8GB

...P 278ms S 288kB R 522kB FirstP 258ms S 288kB R 522kB ,P 323ms S 288kB R 522kB IP 275ms S 288kB R 522kB needP 293ms S 288kB R 522kB toP 269ms S 288kB R 522kB understandP 281ms S 288kB R 522kB whatEvaluation nBatches:32 nTokens:19 tokens/s:7.70(129.89ms/tok)Prediction nTokens:77 tokens/s:3.54(282.22ms/tok) Network is closed

4 xRaspberry Pi5 8GB

...P 162ms S 864kB R 1191kB TheP 160ms S 864kB R 1191kB MultiP 157ms S 864kB R 1191kB -P 176ms S 864kB R 1191kB DeviceP 130ms S 864kB R 1191kB InP 174ms S 864kB R 1191kB ferenceP 132ms S 864kB R 1191kB ClusterP 172ms S 864kB R 1191kB (P 139ms S 864kB R 1191kB MDP 184ms S 864kB R 1191kB ICP 162ms S 864kB R 1191kB )P 156ms S 864kB R 1191kB isEvaluation nBatches:32 nTokens:19 tokens/s:11.68(85.63ms/tok)Prediction nTokens:77 tokens/s:6.43(155.60ms/tok) Network is closed

结语

“当树莓派集群遇见分布式AI,算力民主化的大门正在打开!”在评论区参与讨论,看看你对分布式计算的想法吧。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 树莓派
    +关注

    关注

    122

    文章

    2069

    浏览量

    109728
  • DeepSeek
    +关注

    关注

    2

    文章

    824

    浏览量

    2819
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    DeepSeek-V3 和 DeepSeek-R1 是深度求索公司(DeepSeek)推出的两个不同定位的大模型,其核心差异主要体现在目标场景、能力侧重和技术优化方向上。以下是二者的实
    发表于 02-14 02:08

    RK3588开发板上部署DeepSeek-R1模型的完整指南

    的核心功能之一,它允许用户将Hugging Face或GGUF格式的大语言模型转换为RKLLM模型,从而将RKLLM模型在Rockchip NPU上加载运行。 (4)编译
    发表于 02-27 16:45

    香蕉 BPI-M1R1

    与kernel,Uboot 2015.01版本,Linux内核版本:Kernel 3.19-rc52.支持uboot HDMI显示,加快启动速度.3.支持BPI-R1 BPI-M14.直接支持BPI-R1上switch 交换芯片与wifi模块,驱动完全支持
    发表于 02-11 11:24

    CMD244K5分布式放大器

    `CMD244K5分布式放大器产品介绍CMD244K5询价热线CMD244K5现货CMD244K5代理王先生15989509955深圳市立年
    发表于 02-13 15:14

    树莓带你掌握嵌入linux产品实战开发

    树莓带你掌握嵌入linux产品实战开发–我们实战开发的paipai one设备介绍附原理图(三)本文非作者授权,禁止转载2020年8月
    发表于 11-05 06:39

    树莓(Raspberry Pi)实战指南.pdf

    树莓实战指南
    发表于 05-07 15:17 130次下载

    云天励飞上线DeepSeek R1系列模型

    -Distill-Llama-70B大模型DeepSeek V3/R1 671B MoE大模型也在有序适配中。适配完成后,DeepEdge10芯片平台将在端、边、云全面支持
    的头像 发表于 02-06 10:39 1085次阅读
    云天励飞上线<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>

    扣子平台支持DeepSeek R1与V3模型

    近日,新一代AI应用搭建平台“扣子”宣布了一项重要更新,即正式支持DeepSeekR1和V3模型,并向广大用户开放免费体验。 扣子平台一直以来都致力于为用户提供便捷、高效的AI应用搭建服务,帮助
    的头像 发表于 02-08 13:42 1869次阅读

    Deepseek R1模型离线部署教程

    DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用强化学习进行后训练,旨在提升推理能力,尤其擅长数学、代码和自然语言
    的头像 发表于 02-12 09:37 2453次阅读
    <b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>离线部署教程

    DeepSeek4J开源:高效解决DeepSeek R1集成挑战

    随着 DeepSeek R1 模型的发布,其强大的思维链能力让开发者为之兴奋。然而,Spring AI 等主流框架对其支持不足,导致很多开发者无法充分发挥模型潜力。本文将为您带来一个完
    的头像 发表于 02-12 11:33 1612次阅读
    <b class='flag-5'>DeepSeek4</b>J开源:高效解决<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>集成挑战

    超星未来惊蛰R1芯片适配DeepSeek-R1模型

    日前,超星未来研发团队成功完成了惊蛰R1芯片对DeepSeek-R1模型的适配工作,实现了与用户之间的流畅对话。这一成果标志着超星未来在人工智能芯片和模型优化方面取得了重要进展
    的头像 发表于 02-13 14:05 1103次阅读

    OpenAI O3与DeepSeek R1:推理模型性能深度分析

    OpenAI刚推出的O3和DeepSeekR1代表了推理模型领域的重大进步。这两种模型都因在各种基准测试中的出色表现而备受关注,引发了人们对人工智能的未来及其对各个行业的潜在影响的讨
    的头像 发表于 02-18 11:07 1308次阅读

    ORinNano离线部署Deepseek R1模型教程

    ORinNano离线部署Deepseek R1模型教程
    的头像 发表于 04-10 15:32 1042次阅读
    ORinNano离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    DeepSeek开源新版R1 媲美OpenAI o3

    ;还有一些网友的实测评价都显示, DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性价比的平替。 此外,关于DeepSeek
    的头像 发表于 05-29 11:23 739次阅读

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1382次阅读
    瑞萨RZ/V2H平台支持部署离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>