0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

SL1680 SoC本地运行DeepSeek R1 1.5B大模型

jf_59991523 来源:jf_59991523 作者:jf_59991523 2025-04-17 17:09 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

SL1680 SoC本地运行DeepSeek R1 1.5B大模型

自DeepSeek大模型发布以来,深蕾半导体SoC团队针对在端侧运行DeepSeek大模型不断进行研究,探索将DeepSeek大模型与SoC系列产品相结合的模式。目前已经实现利用深蕾半导体的ASTRA SL1680 SoC本地运行DeepSeek R1 Distill Qwen2.5 1.5B大模型。

DeepSeek R1 Distill Qwen2.5 1.5B是DeepSeek R1发布中最小的模型 - 它可以在ASTRA SL1680上舒适地运行。

一、SL1680本地运行Deepseek-R1-1.5B大模型展示

wKgZO2gAntaAO81xAAeYe0My_Lo217.png

SL1680本地运行Deepseek-R1-1.5B大模型视频效果

执行过程

要在ASTRA开发板上运行Qwen,我们将使用llama-cpp-python包,它为Georgi Gerganov的llamacpp提供了便捷的Python绑定。

wKgZO2gAnxWAWZV6AAS9_ylq1gM966.png

wKgZO2gAnzCAE_4rAANlmcMqdrY486.png

除了在SL1680本地运行Deepseek-R1-1.5B大模型,还实现了运行Llama 3.2 1B大模型。

运行环境

系统:Linux(yocto)

硬件:SL1680 RDK开发板


产品化路径

对于SL1680产品如何与大模型结合的问题,建议采用端侧大模型与云端大模型相结合的工程化方式处理,本地能处理的用户任务使用端侧大模型快速解决和输出,而较复杂的逻辑以及联网功能则通过请求云端大模型API的方式实现。

如视频所展示的,将Deepseek-R1-1.5B大模型部署到SoC本地,能够实现知识问答、FuntionCall等AI能力。通过将云端的大模型与端侧的语音识别机器视觉功能、端侧小参数大模型相结合,从而让AI赋能我们的产品,提升产品的智能化程度。

二、本地小参数大模型与端云大模型结合的应用场景

1,多媒体终端:本地小参数大模型可在端侧如智能大屏,快速处理一些常见的简单任务,如语音助手对常见指令的快速响应、文本的简单摘要生成、数据加工整理、设备操控、产品说明、产品售后问题自助解决等。当遇到复杂任务,如深度文本分析、多模态内容生成时,可将任务发送到云侧大模型进行处理,利用云侧大模型强大的计算能力和丰富的知识储备来完成。

2,智能办公设备(MINI PC):本地小参数大模型可以实时处理用户的语音交互、文字输入信息处理、智能控制等任务,作为用户AI助手。而对于一些复杂的逻辑理解、内容生成设计和决策任务等,则借助云侧大模型的强大算力和更全面的数据分析能力来完成。

3,零售电商:在商品展示平台的搜索推荐场景中,本地小参数大模型可以根据用户在本地设备上的浏览历史、购买行为、环境感知等数据,快速生成初步的推荐结果。当用户有更复杂的搜索需求,如对比不同商品的详细参数、询问商品的使用场景等问题时,云侧大模型可以利用其庞大的商品知识库和强大的语言理解能力,给出更准确、详细的回答和推荐。

三、ASTRA SL1680 SoC介绍

ASTRA SL1680是一款专为智能应用设计的高性能系统级芯片(SoC),它拥有

1,4*Cortex A73 CPU处理器

Cortex A73是ARM公司设计的一款高性能CPU核心,适用于需要高性能计算的应用场景,能够提供强大的处理能力和多任务处理能力,为Deepseek-R1-1.5B大模型的运行提供坚实保障。


2,高达7.9 Top NPU算力:

NPU(Neural Processing Unit,神经网络处理单元)是专门用于加速神经网络计算的硬件单元。7.9 Top的算力使SL1680在神经网络计算方面有着极高的性能,为端云结合的应用模式创造了有利条件。


3,64-bit高速内存:

64位内存架构支持更大的内存寻址空间,使得SL1680能够同时处理更多的数据和运行更复杂的应用程序。高速内存则保证了数据访问的迅速性,提升了整体性能。

wKgZPGgAn4uAM23GAAvynChu45w281.png




审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • soc
    soc
    +关注

    关注

    40

    文章

    4625

    浏览量

    230207
  • 大模型
    +关注

    关注

    2

    文章

    3772

    浏览量

    5273
  • DeepSeek
    +关注

    关注

    2

    文章

    839

    浏览量

    3406
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    DeepSeek爆火一周年的寂静

    ,争先恐后地展示技术进步。而另一边,则是DeepSeek模型缺席春节假期,与一年前R1横空出世、引爆全球关注的高光姿态,形成了鲜明对比。   恰逢R1爆火一周年的时刻,我们回溯了过去
    的头像 发表于 02-26 14:15 1.1w次阅读
    <b class='flag-5'>DeepSeek</b>爆火一周年的寂静

    如何在ZYNQ本地部署DeepSeek模型

    一个将最小号 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 处理系统的项目。
    的头像 发表于 12-19 15:43 7823次阅读
    如何在ZYNQ<b class='flag-5'>本地</b>部署<b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    基于合众恒跃rk3576 开发板deepseek-r1-1.5b/7b 部署指南

      核心结论:部署流程分为 5 大核心步骤,依次为基础环境安装、模型下载、模型格式转换、部署程序编译、开发板运行测试,1.5b 模型适配 4
    的头像 发表于 12-09 07:08 730次阅读
    基于合众恒跃rk3576 开发板<b class='flag-5'>deepseek-r1-1.5b</b>/7<b class='flag-5'>b</b> 部署指南

    什么?200+核心板能跑大模型?RV1126B模型deepseek 1.5B已经能够跑通啦!#大模型

    模型
    广州灵眸科技有限公司
    发布于 :2025年12月02日 15:53:21

    贸泽开售适用于消费电子和工业应用的 Synaptics全新SL1680嵌入式物联网处理器

    处理器。SL1680是Synaptics的高度集成、AI原生、支持Android ^™^ 和Linux ^®^ 的嵌入式片上系统 (SoC) 处理器中的新成员,专为多模态企业级、消费级和工业物联网应用优化
    的头像 发表于 11-21 14:07 802次阅读
    贸泽开售适用于消费电子和工业应用的 Synaptics全新<b class='flag-5'>SL1680</b>嵌入式物联网处理器

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能化水平,特别是在本地化复
    的头像 发表于 09-26 13:35 995次阅读

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4683次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    如何在NVIDIA Blackwell GPU上优化DeepSeek R1吞吐量

    开源 DeepSeek R1 模型的创新架构包含多头潜在注意力机制 (MLA) 和大型稀疏混合专家模型 (MoE),其显著提升了大语言模型
    的头像 发表于 08-12 15:19 4499次阅读
    如何在NVIDIA Blackwell GPU上优化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1579次阅读
    速看!EASY-EAI教你离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    可以看到有个进度条在拉取0.6B的Qwen模型。当然也可以拉去deepseek模型,如下: ./ollama run deepseek-r1
    发表于 07-19 15:45

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    的展望,大模型的训练方法、推理部署,到 GPU 硬件及推理模型的发展趋势,以前瞻性的视角为读者描绘了大模型的发展蓝图。 技惊四座的DeepSeek -
    发表于 07-17 11:59

    DeepSeek开源新版R1 媲美OpenAI o3

    ;还有一些网友的实测评价都显示, DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性价比的平替。 此外,关于DeepSeek
    的头像 发表于 05-29 11:23 1503次阅读

    ElfBoard技术实战|ELF 2开发板本地部署DeepSeek模型的完整指南

    ELF 2开发板本地部署DeepSeek模型的完整指南
    的头像 发表于 05-16 11:13 2778次阅读
    ElfBoard技术实战|ELF 2开发板<b class='flag-5'>本地</b>部署<b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1866次阅读
    瑞萨RZ/V2H平台支持部署离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>

    DeepSeek 引领边缘 AI 芯片向更高性能、更低功耗、更强泛化能力的方向演进

    DeepSeek 系列模型概览 DeepSeek 系列包括大型语言模型(如 DeepSeek LLM、R
    的头像 发表于 05-09 10:27 2421次阅读