0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

香橙派发布OrangePi AIpro(20T)本地部署Deepseek-R1蒸馏模型指南!

香橙派 2025-02-14 16:29 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

日前,香橙派官方发布OrangePi AIpro(20T)运行Deepseek-R1蒸馏模型实操指南,帮助用户通过先进算力和硬件架构实现高效的端侧智能。

OrangePi AIpro(20T)是香橙派联合昇腾AI打造的高算力开发板,根植于昇腾AI技术,集AI计算、ISP、图形输出等功能于一体,释放高达20 TOPS的AI算力。可配24GB运行内存,汇聚了MIPI DSI、双MIPI CSIUSB3.0、Type-C、双HDMI2.0、双2.5G以太网、支持SATA/NVMe SSD 2280的M.2插槽等各类流行的接口。 OrangePi AIpro(20T)依托昇腾AI基础软硬件能力的基础,融合大模型与训推一体化优势,实现端边云全场景无缝部署,是构建昇腾计算产品、使能上层软件和应用的底座,有高算力、高能效等特性。

wKgZO2etV3SAEgasAAsLCfD-ZYA813.png

该产品广泛应用于AI边缘计算、深度视觉与视频流分析、自然语言处理、智能机器人(如小车、机械臂)、无人机云计算、AR/VR、智能安防及家居等AIoT全领域,引领行业智能化转型。

基于昇腾硬件底座、昇腾异构计算架构CANN、昇思Mindspore AI框架以及MindlE推理引擎,用户可以通过OrangePi Alpro(20T)开展面向金融、教育、政务、智能制造、智能家居、智慧交通等行业的人工智能应用开发。

OrangePi AIpro(20T)运行Deepseek-R1蒸馏模型

据了解,DeepSeek-R1专为数学、代码生成和复杂逻辑推理任务设计,通过大规模强化学习(RL)提升推理能力,还摒弃监督微调(SFT),采用纯强化学习(GRPO算法)训练基座模型。同时,DeepSeek-R1提供了高效模型蒸馏技术,可将大规模模型能力迁移至更小、更高效的版本,优化模型性能、开源应用。经蒸馏后的DeepSeek-R1模型支持部署于端侧,大幅降低计算资源需求,显著提升端侧设备的AI推理效率。

除OrangePi AIpro(20T)之外,迅龙软件也发布了OrangePi AI Studio、OrangePi 5Plus运行Deepseek-R1蒸馏模型的实操指南。迅龙软件表示,未来将继续加大研发投入,携手行业伙伴,推动不同算力等级的开发板与DeepSeek等优质模型相结合,进一步降低端侧AI的门槛,为客户创造更大的AI价值。

实操指南

DeepSeek-R1-Distill-Qwen-1.5B

  1. 下载最新的desktop版本镜像。

  1. 执行以下命令启动推理。

(base) HwHiAiUser@orangepiaipro-20t:~$cd orange-pi-mindspore/Online/17-DeepSeek-R1-Distill-Qwen-1.5B

(base) HwHiAiUser@orangepiaipro-20t:~/orange-pi-mindspore/Online/17-DeepSeek-R1-Distill-Qwen-1.5B$python deepseek-r1-distill-qwen-1.5b.py

  1. 第一次启动会自动下载模型,具体时间视网络环境而定,模型会被下载到“~/orange-pi-mindspore/Online/17-DeepSeek-R1-Distill-Qwen-1.5B/.mindnlp/model/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B/”文件夹内。

  1. 推理代码默认在启动的时候会检查相关的依赖,此时如果网络环境不好,会导致无法启动。如果不是第一次启动,且模型已经下载完成,可以按照下图所示,修改tokenizer和model参数,将路径改成本地绝对路径,这样就可以离线启动了。

(base) HwHiAiUser@orangepiaipro-20t:~/orange-pi-mindspore/Online/17-DeepSeek-R1-Distill-Qwen-1.5B$vimdeepseek-r1-distill-qwen-1.5b.py

  1. 等待一会,会出现一个ip,复制到开发板上的浏览器的地址栏访问。
wKgZO2eu_riAMo-5AALmjgCYz_8327.png

  1. 启动后,可在页面下方消息输入框“Type a message…”中输入任何问题,或者点击下方Examples中设置好的问题,然后点击右侧的“Submit”按钮,Qwen模型将对此进行回答。
wKgZO2eu_riAEK9HAACaMLKjOkI548.png

  1. 第一次回答需要较长时间加载,大约需要1分钟,请耐心等待。回答将显示在上方聊天框中。

  1. 如果出现Error,可以点击“retry”按钮重新发送上一条消息,并让模型重新回答;点击“undo”按钮可撤回上一条消息;点击“clear”按钮将清空聊天框中的对话。
wKgZPGeu_riANdCdAABq4V532AY458.png

  1. 输出结果如下图所示:
wKgZO2eu_riAPr1bAAflL91S5kY590.png
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 开发板
    +关注

    关注

    26

    文章

    6402

    浏览量

    120532
  • 香橙派
    +关注

    关注

    2

    文章

    52

    浏览量

    12503
  • 大模型
    +关注

    关注

    2

    文章

    3747

    浏览量

    5268
  • DeepSeek
    +关注

    关注

    2

    文章

    837

    浏览量

    3392
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    百度腾讯抢滩布局!DeepSeek-R1升级和开源背后,国产AI的逆袭之路

    电子发烧友网报道(文/李弯弯)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本试升级,当前版本为DeepSeek-R1-0528。次日,
    的头像 发表于 06-03 06:34 6351次阅读

    香橙派昇腾系列开发板如何部署OpenClaw

    香橙派昇腾系列板子的详细部署教程。 已测试过的昇腾系列开发板和系统 OPi AIpro 20T
    发表于 02-25 10:13

    如何在ZYNQ本地部署DeepSeek模型

    一个将最小号 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 处理系统的项目。
    的头像 发表于 12-19 15:43 7798次阅读
    如何在ZYNQ<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行了DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能化水平,特别是在本地化复
    的头像 发表于 09-26 13:35 981次阅读

    本地部署openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    DeepSeek 作为一个开源的大语言模型,我们可以通过 ZeroNews + openWebUI + ollama的方式,轻松的在本地私有化部署
    的头像 发表于 09-10 16:41 5507次阅读
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知识库并实现远程访问

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4652次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1560次阅读
    速看!EASY-EAI教你离线<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    DeepSeek-V3中得到了优化升级。DeepSeek-V3的发布几乎没有预热和炒作,仅凭借其出色的效果和超低的成本迅速走红。 紧接着,在2025年1
    发表于 07-17 11:59

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1410次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版<b class='flag-5'>部署</b>

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景中的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景中的性能纪录:在 GTC 2025
    的头像 发表于 07-02 19:31 3541次阅读
    NVIDIA Blackwell GPU优化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延迟场景中的性能纪录

    【书籍评测活动NO.62】一本书读懂 DeepSeek 全家桶核心技术:DeepSeek 核心技术揭秘

    DeepSeek-V3 的发布几乎没有预热和炒作,仅凭借其出色的效果和超低的成本迅速走红。 DeepSeek-R1 则是在 DeepSeek-V3 的基础上构建的推理
    发表于 06-09 14:38

    ElfBoard技术实战|ELF 2开发板本地部署DeepSeek模型的完整指南

    ELF 2开发板本地部署DeepSeek模型的完整指南
    的头像 发表于 05-16 11:13 2748次阅读
    ElfBoard技术实战|ELF 2开发板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整<b class='flag-5'>指南</b>

    使用瑞萨MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大语言模型(LLM)可用于理解人类语言的交互方式,思考,并给出合适的回应。
    的头像 发表于 05-15 14:40 1129次阅读
    使用瑞萨MPU芯片RZ/V2H<b class='flag-5'>部署</b><b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1845次阅读
    瑞萨RZ/V2H平台支持<b class='flag-5'>部署</b>离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>

    【幸狐Omni3576边缘计算套件试用体验】CPU部署DeekSeek-R1模型1B和7B)

    优化:动态分配计算资源至关键token 中文优化:在Wudao Corpus等中文数据集上强化训练 技术突破: 相比传统LLM,DeepSeek-R1通过以下创新实现低资源部署: MoE架构:专家混合层
    发表于 04-21 00:39