0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

香橙派发布OrangePi 5Plus本地部署Deepseek-R1蒸馏模型指南

香橙派 2025-02-19 16:14 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在DeepSeek迅速成为行业焦点之际,香橙派昇腾系列产品已经率先完成了与 DeepSeek 模型的深度适配,通过在边缘进行离线部署,帮助用户实现高效端侧智能,确保数据处理的安全性和可控性。

紧接着,香橙派官方发布OrangePi5Plus运行Deepseek-R1蒸馏模型实操指南,赶紧收藏起来吧!

OrangePi 5 Plus采用了瑞芯微RK3588八核64位处理器,具体为四核A76+四核A55,8nm工艺设计,主频最高可达2.4GHz,集成ARM Mali-G610,内置3D GPU,兼容OpenGL ES1.1/2.0/3.2、OpenCL 2.2和Vulkan 1.2;内嵌的NPU支持INT4/INT8/INT16/FP16混合运算,算力高达6TOPS,可以满足绝大多数终端设备的边缘计算需求;拥有4GB/8GB/16GB(LPDDR4/4X)、32GB LPDDR4X,和eMMC闪存插座,可以外接16GB/32GB/64GB/128GB/256GB eMMC模块。OrangePi 5 Plus支持OrangePi官方研发的操作系统Orangepi OS,同时,支持Android12、Debian11、Ubuntu22.04等操作系统。OrangePi 5 Plus顺利通过开放原子开源基金会XTS认证,并获颁OpenHarmony生态产品兼容性证书。

wKgZPGe1kfuAKBohAAZsU3wT5os245.png

实操指南:OrangePi5Plus运行Deepseek-R1蒸馏模型

1.1.6.DeepSeek-R1-Distill-Qwen-1.5B

1)参考用户手册在pc端安装RKLLM工具链。

2)参考用户手册在pc端编译llm_demo测试程序。

3)先在Ubuntu操作系统上安装GitLFS,如果已安装可跳过这一步。

test@test:~$sudo apt update

test@test:~$sudo apt install curl git git-lfs

4)接着下载DeepSeek-R1-Distill-Qwen-1.5B模型。

test@test:~$git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

5)参考下面的代码修改test.py文件。

a. modelpath:DeepSeek-R1-Distill-Qwen-1.5B文件夹所在的绝对路径

b. llm.export_rkllm:转换后模型保存路径。

test@test:~$vimrknn-llm/rkllm-toolkit/examples/test.py

modelpath ="/path/your/DeepSeek-R1-Distill-Qwen-1.5B"#填你自己的路径

ret = llm.export_rkllm("./DeepSeek-R1-Distill-Qwen-1.5B.rkllm")

6) 创建一个名为“data_quant.json”的文件。内容可以参考下面的示例。

test@test:~$vimrknn-llm/rkllm-toolkit/examples/data_quant.json

[{"input":"Human: 你好!\nAssistant: ", "target": "你好!我是人工智能助手KK!"}]

7) 然后用python3运行test.py文件来转换大模型。

test@test:~$cdrknn-llm/rkllm-toolkit/examples

test@test:~/rknn-llm/rkllm-toolkit/examples$python3test.py

8) 转换成功的输出如下所示:

wKgZPGe1kfuAJ_9DAAERIbgOthY582.png

9) 最后转换成功会在当前目录下得到DeepSeek-R1-Distill-Qwen-1.5B.rkllm文件,大小约为1.9G。

test@test:~/rknn-llm/rkllm-toolkit/examples$ls

data_quant.json test.py DeepSeek-R1-Distill-Qwen-1.5B.rkllm

10) 参考用户手册更新NPU内核驱动和rknn-llm相关文件。这里使用的版本是:

rkllm-runtime version: 1.1.4, rknpu driver version: 0.9.6

11) 将在Ubuntu PC端编译好的llm_demo程序和DeepSeek-R1-Distill-Qwen-1.5B.rkllm模型文件上传到开发板中。

orangepi@orangepi:~$ls

llm_demo DeepSeek-R1-Distill-Qwen-1.5B.rkllm

12) 然后运行下面的命令限制最多打开的文件描述符(每开一个终端都要运行)。

orangepi@orangepi:~$ulimit -HSn 102400

13) 然后运行下面的命令来启动模型。

orangepi@orangepi:~$chmod 777 llm_demo

orangepi@orangepi:~$./llm_demo ./DeepSeek-R1-Distill-Qwen-1.5B.rkllm256 320

14) 运行成功的话就会弹出以下界面。

wKgZO2e1kfuADWPtAADbTegJsaM651.png

15) 如果运行完弹出以下失败界面的话,reboot重启开发板就可以了。第四步运行成功的话则跳过这一步。

wKgZPGe1kfuAVDiBAAA6_6DYTEY331.png

orangepi@orangepi:~$sudo reboot

16) 在交互界面输入问题后按回车,测试成功的结果如下:

wKgZO2e1kfuAdvTCAAHkTbJ9h4U781.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开发板
    +关注

    关注

    26

    文章

    6419

    浏览量

    120805
  • 香橙派
    +关注

    关注

    2

    文章

    52

    浏览量

    12509
  • DeepSeek
    +关注

    关注

    2

    文章

    839

    浏览量

    3397
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    百度腾讯抢滩布局!DeepSeek-R1升级和开源背后,国产AI的逆袭之路

    电子发烧友网报道(文/李弯弯)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本试升级,当前版本为DeepSeek-R1-0528。次日,
    的头像 发表于 06-03 06:34 6374次阅读

    OPi RK3588/RK3588S系列产品全面适配Openclaw,智能体“人人可及”时代正式开启

    招呼它帮你干活。 这只能理解指令、自主操作电脑、打通真实工作流的胖憨小龙虾,就问你馋不馋?快来跟我一起拿下它!以下是香橙派RK3588/RK3588S系列板子的详细部署教程(以OrangePi
    发表于 02-10 17:43

    OPi 6Plus全面适配OpenClaw

    __Connected__后,就可以进行对话了。 别再为部署OpenClaw而纠结于昂贵的硬件或复杂的云端配置。香橙派在OrangePi 6Plus上的成功实践,已经为你铺平了道路,
    发表于 02-06 20:00

    如何在ZYNQ本地部署DeepSeek模型

    一个将最小号 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 处理系统的项目。
    的头像 发表于 12-19 15:43 7818次阅读
    如何在ZYNQ<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行了DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能化水平,特别是在本地化复
    的头像 发表于 09-26 13:35 992次阅读

    本地部署openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    DeepSeek 作为一个开源的大语言模型,我们可以通过 ZeroNews + openWebUI + ollama的方式,轻松的在本地私有化部署
    的头像 发表于 09-10 16:41 5518次阅读
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知识库并实现远程访问

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4680次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1576次阅读
    速看!EASY-EAI教你离线<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    相对策略优化**(GRPO)算法、奖励模型**等关键技术的深入剖析,可以帮助读者了解 DeepSeek 在强化学习领域的创新性探索。对DeepSeek-R1 的训练过程和推理能力的蒸馏
    发表于 07-17 11:59

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1426次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版<b class='flag-5'>部署</b>

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景中的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景中的性能纪录:在 GTC 2025
    的头像 发表于 07-02 19:31 3560次阅读
    NVIDIA Blackwell GPU优化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延迟场景中的性能纪录

    【书籍评测活动NO.62】一本书读懂 DeepSeek 全家桶核心技术:DeepSeek 核心技术揭秘

    DeepSeek-V3 的发布几乎没有预热和炒作,仅凭借其出色的效果和超低的成本迅速走红。 DeepSeek-R1 则是在 DeepSeek-V3 的基础上构建的推理
    发表于 06-09 14:38

    ElfBoard技术实战|ELF 2开发板本地部署DeepSeek模型的完整指南

    ELF 2开发板本地部署DeepSeek模型的完整指南
    的头像 发表于 05-16 11:13 2774次阅读
    ElfBoard技术实战|ELF 2开发板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整<b class='flag-5'>指南</b>

    使用瑞萨MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大语言模型(LLM)可用于理解人类语言的交互方式,思考,并给出合适的回应。
    的头像 发表于 05-15 14:40 1143次阅读
    使用瑞萨MPU芯片RZ/V2H<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1862次阅读
    瑞萨RZ/V2H平台支持<b class='flag-5'>部署</b>离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>