0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何在Raspberry Pi 5上运行DeepSeek-R1

柴火创客空间 来源:柴火创客空间 2025-02-26 17:26 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

DeepSeek 最近成为热门话题已经有一段时间。作为一款功能强大的开源大型语言模型,专为各种 AI 应用而设计,从自然语言处理到内容生成,它有多种规格的模型,使其能够适应不同的计算系统。

虽然 DeepSeek-R1 通常在高性能硬件上运行,但它也可以通过适当优化部署在 Raspberry Pi 5 上。本指南将引导你如何设置兼容环境、安装必要的工具以及使用 Ollama 平台在 Raspberry Pi 5 上运行 DeepSeek-R1。无论是在寻找用于快速响应的轻量级模型,还是寻找更高级的模型以获得更高的准确性,本教程都将帮助你入门。

材料清单

硬件

树莓派5 8G

crowpi 2套件

软件

ollama

huggingfance

DeepSeek

第1步:设置虚拟环境

为防止与系统的默认设置发生冲突,最好为模型部署创建虚拟环境。这可确保对 DeepSeek 所做的任何更改都不会影响其他应用程序。

创建项目目录和虚拟环境

打开终端并运行以下命令:

mkdir /home/pi/my_project
cd /home/pi/my_project/
python -m venv /home/pi/my_project/

激活虚拟环境,创建虚拟环境后,将其激活:

source /home/pi/my_project/bin/activate

要停用虚拟环境,请使用:

deactivate

确保在此虚拟环境中执行所有模型设置步骤。

第 2 步:安装 Ollama 平台

DeepSeek-R1 可以使用 Ollama 平台运行,该平台支持 GGUF 格式的模型文件。如果您选择 safetensors 格式模型,则需要使用 llama.cpp 将其转换为 GGUF。

检查系统兼容性

在继续之前,请通过运行

uname -m

安装 Ollama

首先,更新您的系统:

sudo apt update
sudo apt upgrade -y

然后,安装 curl(下载 Ollama 所需):

sudo apt install curl

现在,下载并安装 Ollama 平台:

curl -fsSL https://ollama.com/install.sh | sh

验证安装

检查 Ollama 是否安装成功:

ollama –version

现在 Ollama 已准备就绪,让我们继续下载 DeepSeek-R1 模型。

第 3 步:在 Ollama 上运行 DeepSeek-R1

有两种方法可以获取 DeepSeek-R1 模型:

1. 直接从 Ollama 下载并运行它。

2. 从 HuggingFace 下载模型,然后将其导入 Ollama。

无论采用哪种方法,都需要 Ollama。

方法 1:直接从 Ollama 下载并运行

Ollama 提供预配置的模型,使其成为最简单的入门方式。

在Ollama 网站上搜索 DeepSeek-R1 并找到合适的模型大小。

a34f85f6-ef73-11ef-9310-92fbcf53809c.jpg

下载 Deepseek R1

要运行 1.5B 模型:

a3574dcc-ef73-11ef-9310-92fbcf53809c.jpg

运行 1.5B Deepseek

ollama run deepseek-r1:1.5b

向模型提出一个问题,例如“用简单的术语解释量子纠缠”。它会立即响应,同时也会展示它的思维过程。

a36beb74-ef73-11ef-9310-92fbcf53809c.jpg

向 Deepseek 提问

方法 2:从 HuggingFace 下载模型

从 HuggingFace 下载允许您选择特定的模型大小。这很有帮助,因为 Raspberry Pi 5(即使有 16GB RAM)也无法有效地处理更大的模型。

从 HuggingFace 中选择模型

访问HuggingFace并搜索 DeepSeek-R1。

选择适合 Raspberry Pi 5 的较小蒸馏版本。

在本指南中,我们将使用 DeepSeek-R1-Distill-Llama-8B-GGUF,它有 80 亿个参数,并针对性能进行了优化。

下载 Q8_0模型文件 (~8.54GB),因为它平衡了质量和效率。

a380b9aa-ef73-11ef-9310-92fbcf53809c.jpg

下载 Q8_0 Deepseek R1 模型

将模型文件传输到 Raspberry Pi

下载这三个文件后,使用 FileZilla 或其他文件传输工具将它们传输到您的 Raspberry Pi。

a38e298c-ef73-11ef-9310-92fbcf53809c.jpg

传输 DeepSeek 模型文件

第 4 步:将 GGUF 模型导入 Ollama

一旦模型文件位于 Raspberry Pi 上,我们需要将它们导入 Ollama。

创建 Modelfile

首先,在 model 文件夹中创建一个 Modelfile 并授予其完全权限:

sudo touch /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/Modelfile
sudo chmod 777 /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/Modelfile

添加模型配置

打开 Modelfile 并添加:

FROM /home/pi/my_project/DeepSeek-R1-Distill-Llama-8B-Q8_0/DeepSeek-R1-Distill-Llama-8B-Q8_0.gguf

a39a6bc0-ef73-11ef-9310-92fbcf53809c.jpg

编辑模型文件

现在,在 Ollama 中创建模型:

ollama create DeepSeek-R1 -f Modelfile

验证模型是否可用:

ollama list   

a3a1ded2-ef73-11ef-9310-92fbcf53809c.jpg

Deepseek R1 模型

现在,启动模型:

ollama run deepseek-r1:latest

a3b71ed2-ef73-11ef-9310-92fbcf53809c.jpg

运行 deepseek r1

向它提出问题并观察其反应。

模型选项的比较

我们已经测试了 DeepSeek-R1 的两个版本:

1. DeepSeek-R1-1.5B(直接从 Ollama 下载)。

2. DeepSeek-R1-Distill-Llama-8B(从 HuggingFace 下载)。

a3d38608-ef73-11ef-9310-92fbcf53809c.jpg

Deepseek R1 模型比较

如果您优先考虑更快的响应,请使用 DeepSeek-R1-1.5B。如果您想要更高质量的答案,请使用 DeepSeek-R1-Distill-Llama-8B,但请注意 RAM 限制。

结论

通过遵循本指南,您可以使用 Ollama 平台在 Raspberry Pi 5 上成功运行 DeepSeek-R1。如果您想要简单的设置,最好直接从 Ollama 下载。但是,如果您需要特定的模型大小,HuggingFace 提供了更大的灵活性。现在,尝试你的模型,看看它能做什么!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38176

    浏览量

    296936
  • 模型
    +关注

    关注

    1

    文章

    3649

    浏览量

    51719
  • 树莓派
    +关注

    关注

    122

    文章

    2070

    浏览量

    109768
  • DeepSeek
    +关注

    关注

    2

    文章

    824

    浏览量

    2825

原文标题:创客项目秀|基于树莓派5本地化部署DeepSeek

文章出处:【微信号:ChaiHuoMakerSpace,微信公众号:柴火创客空间】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    DeepSeek-R1实现自动生成Manim动画

    ​ 作者:算力魔方创始人/英特尔创新大使刘力 前面我们分享了在本地运行能与OpenAI-o1 能力相媲美的DeepSeek-R1 模型。本文将介绍如何使用DeepSeek-R1实现自动
    的头像 发表于 02-07 12:31 4655次阅读
    用<b class='flag-5'>DeepSeek-R1</b>实现自动生成Manim动画

    如何使用OpenVINO运行DeepSeek-R1蒸馏模型

    DeepSeek-R1在春节期间引发了全球科技界的热度,DeepSeek-R1 是由 DeepSeek 开发的开源推理模型,用于解决需要逻辑推理、数学问题解决和实时决策的任务。
    的头像 发表于 03-12 13:45 2043次阅读
    如何使用OpenVINO<b class='flag-5'>运行</b><b class='flag-5'>DeepSeek-R1</b>蒸馏模型

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    DeepSeek-R1 更适合电子工程核心工作流,因其在符号数学、代码严谨性、长文档结构化理解的优势。 二、其他领域专用模型推荐 若需更高精度,可结合以下工具组成混合方案: 1. 符号计算增强
    发表于 02-14 02:08

    RK3588开发板上部署DeepSeek-R1大模型的完整指南

    的核心功能之一,它允许用户将Hugging Face或GGUF格式的大语言模型转换为RKLLM模型,从而将RKLLM模型在Rockchip NPU加载运行。 (4)编译DeepSeek-R1程序
    发表于 02-27 16:45

    对标OpenAI o1,DeepSeek-R1发布

    DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务,性能比肩 OpenAI o1 正式版
    的头像 发表于 01-22 13:46 3080次阅读
    对标OpenAI o<b class='flag-5'>1</b>,<b class='flag-5'>DeepSeek-R1</b>发布

    原生鸿蒙版小艺AppDeepSeek-R1, AI智慧体验更丰富

    2月5日,HarmonyOS NEXT的小艺 App正式DeepSeek-R1 Beta版,帮助消费者在代码编写、数学计算、逻辑推理等方面提供智能问询服务。华为小艺架的
    的头像 发表于 02-07 13:24 1988次阅读

    芯动力神速适配DeepSeek-R1大模型,AI芯片设计迈入“快车道”!

    DeepSeek研发的系列推理模型,自诞生起就备受瞩目。它采用强化学习训练,推理时包含大量反思和验证,思维链长度可达数万字。在数学、代码以及复杂逻辑推理任务DeepSeek-R1有着出色的表现,能取得媲美
    的头像 发表于 02-07 16:55 905次阅读
    芯动力神速适配<b class='flag-5'>DeepSeek-R1</b>大模型,AI芯片设计迈入“快车道”!

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在本地独享 DeepSeek-R1
    的头像 发表于 02-08 09:52 2225次阅读

    OPPO Find N5将接入DeepSeek-R1,可直接语音使用

    全球最薄折叠旗舰OPPO Find N5 将正式接入 DeepSeek-R1,并可通过语音唤醒直接使用,首批购买用户即可率先体验。Find N5将于本月正式发布。   接入DeepSeek-R
    发表于 02-08 17:39 799次阅读

    AIBOX 全系产品已适配 DeepSeek-R1

    国产AI大模型DeepSeek以出色的性价比和高效的模型技术,迅速成为全球AI关注的焦点。Firefly开源团队率先实现AIBOX系列产品对DeepSeek-R1的全面适配。R1模型性能数据
    的头像 发表于 02-08 17:30 947次阅读
    AIBOX 全系产品已适配 <b class='flag-5'>DeepSeek-R1</b>

    OPPO Find N5接入DeepSeek-R1,语音操控更便捷

    近日,OPPO宣布其最新折叠旗舰手机Find N5将正式接入DeepSeek-R1,并可通过语音唤醒直接使用,为首批购买用户带来前所未有的便捷体验。据悉,Find N5将于本月正式发布。 接入
    的头像 发表于 02-12 10:12 838次阅读

    何在MATLAB中使用DeepSeek模型

    DeepSeek-R1(https://github.com/deepseek-ai/DeepSeek-R1) AI 模型横空出世后,人们几乎就立马开始询问如何在 MATLAB 中
    的头像 发表于 02-13 09:20 4079次阅读
    如<b class='flag-5'>何在</b>MATLAB中使用<b class='flag-5'>DeepSeek</b>模型

    超星未来惊蛰R1芯片适配DeepSeek-R1模型

    日前,超星未来研发团队成功完成了惊蛰R1芯片对DeepSeek-R1模型的适配工作,实现了与用户之间的流畅对话。这一成果标志着超星未来在人工智能芯片和模型优化方面取得了重要进展
    的头像 发表于 02-13 14:05 1105次阅读

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在全志T527 Linux系统本地部署并运行DeepSeek-R1 1.5B模型。
    的头像 发表于 02-15 09:06 1640次阅读
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    Infinix AI接入DeepSeek-R1满血版

    传音控股旗下Infinix品牌正式宣布接入DeepSeek-R1满血版,2月26日起支持XOS 14.5及以上版本的Infinix机型可通过升级使用,3月份将发布的全新NOTE系列也将接入DeepSeek-R1,开启“Infinix AI∞ 时代”新篇章。
    的头像 发表于 02-21 16:08 1196次阅读