0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

DeepSeek R1模型本地部署与产品接入实操

jf_59991523 来源:jf_59991523 2025-04-19 16:32 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

DeepSeek R1模型本地部署与产品接入实操

近期,深度求索(DeepSeek)推出的DeepSeek V3/R1系列模型在人工智能领域掀起了一股热潮,引发了广泛的关注与深入探讨。该大模型凭借其卓越的推理能力和对硬件要求的显著降低,赢得了市场的热烈反响。DeepSeek的发布,标志着大模型产品正式迈入“普惠”时代,使得普通个人电脑乃至手机等便携式设备均能流畅运行大型模型。这一里程碑式的进展,不仅激发了部署的浪潮,更激发了人们对大模型潜在应用场景的无限遐想。

DeepSeek之所以备受瞩目,不仅在于其技术的先进性,更在于其为用户提供了前所未有的数据隐私与安全保障。在数据泄露风险日益严峻的今天,DeepSeek的本地化部署方案为用户提供了一个更为安心的选择。通过本地部署,所有数据运算和存储均在本地完成,有效规避了数据在传输和云端存储过程中可能面临的隐私泄露风险。这一特性,使得DeepSeek R1在企业和个人用户中均赢得了广泛的认可与信赖。

自DeepSeek大模型发布以来,深蕾半导体团队迅速展开了对DeepSeek大模型的相关研究,并积极探索DeepSeek大模型与SOC全系列产品结合的模式及市场机遇。

本地部署的私有化DeepSeek R1 32B大模型Web页面访问

通过本地部署私有化大模型,不仅为用户提供了更为便捷的访问途径,还进一步强化了数据的安全性和隐私保护。这一举措为后续SOC产品接入DeepSeek大模型降低了整体成本,同时也为企业内部应用DeepSeek大模型实现降本增效提供了坚实基础。

wKgZPGeyknCAf_evAAM0fYKGoCQ573.png

本地部署的私有化Web页面访问DeepSeek R1 32B大模型的截图

在Web应用页面中,用户可以清晰地查看DeepSeek R1 32B模型的运行状态、处理结果以及历史记录等信息。通过简单的点击和输入操作,用户即可轻松实现与模型的交互和数据处理。此外,该页面还支持语音交互输入方式,进一步提升了用户体验。

deepseekR1 32b本地部署-语音交互

DeepSeek R1 32B模型不仅支持通用知识问答,还具备代码编写、逻辑推理等技能:

本地部署的服务器配置信息:

CPU:24核

显卡:nvidia 3090ti 24g

内存:60G

wKgZPGeykuOAGzK9AAEitVCzThI759.png

配置信息图

VS680接入DeepSeek R1 32B模型API展示

我们还在VS680设备上的APP应用中成功接入了DeepSeek R1 32B模型的API。VS680作为一款高性能计算机设备,其强大的计算能力和稳定的系统环境为DeepSeek R1的运行提供了坚实的保障。特别是VS680自带的7.9T AI算力,为端云结合的应用模式创造了有利条件。

在演示中,我们可以看到VS680设备通过API接口与DeepSeek R1 32B模型实现了无缝连接。用户只需在设备上输入相应的指令或数据,DeepSeek R1模型即可迅速进行运算并返回结果。这一过程中,模型的响应速度、准确性和稳定性均得到了充分展现。

VS680接入字节豆包智能体DeepSeek R1 671B满血模型展示

在字节官方火山引擎大模型开发平台把“深蕾科技智能体”开发好,包括DeepSeek R1模型,角色定位,工作流等,然后发布到豆包应用平台,就可以在VS680上面直接实现满血版的DeepSeek R1大模型接入使用。

DeepSeek大模型与端侧SOC的产品结合方案

针对VS680/SL1680系列大算力芯片,我们的研发团队正在研究将蒸馏后的轻量级DeepSeek模型(DeepSeek-R1-Distill-Qwen-1.5B)部署到SOC本地,以便应用于相关业务场景,如产品AI助手(问答服务、产品介绍、产品售后、产品故障排查等)。我们采用端侧大模型与云端大模型相结合的方式,本地能处理的用户任务使用端侧大模型快速解决和输出,而较复杂的逻辑以及联网功能则通过请求云端大模型API的方式实现。

针对SL1640/SL1620/SR110系列小算力芯片,我们则通过API接入的方式进行产品赋能,如不带屏语音交互产品、小屏桌面音视频多媒体产品等。端侧的语音识别机器视觉与云端的DeepSeek大模型相结合,是智能硬件的最优技术组合,能够显著提升产品的智能化程度,增加产品的附加值。

我们即将推出基于深蕾半导体SOC带机器视觉和语音交互的DeepSeek大模型应用解决方案,敬请期待!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1820

    文章

    50330

    浏览量

    266967
  • 模型
    +关注

    关注

    1

    文章

    3819

    浏览量

    52269
  • DeepSeek
    +关注

    关注

    2

    文章

    839

    浏览量

    3406
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    如何在ZYNQ本地部署DeepSeek模型

    一个将最小号 DeepSeek 模型部署到 AMD Zynq UltraScale+ MPSoC 处理系统的项目。
    的头像 发表于 12-19 15:43 7823次阅读
    如何在ZYNQ<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b><b class='flag-5'>模型</b>

    DeepSeek模型如何在云服务器上部署

    随着大型语言模型(LLM)的应用日益普及,许多开发者和企业希望将像DeepSeek这样的优秀模型部署到自己的云服务器上,以实现私有化、定制化服务并保障数据安全。本文将详细阐述
    的头像 发表于 10-13 16:52 1147次阅读

    广和通成功部署DeepSeek-R1-0528-Qwen3-8B模型

    近日,广和通在MediaTek MT8893平台上成功部署并运行了DeepSeek-R1-0528-Qwen3-8B模型,显著提升了端侧AI设备的处理效率与智能化水平,特别是在本地化复
    的头像 发表于 09-26 13:35 995次阅读

    本地部署openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    DeepSeek 作为一个开源的大语言模型,我们可以通过 ZeroNews + openWebUI + ollama的方式,轻松的在本地私有化部署
    的头像 发表于 09-10 16:41 5522次阅读
    <b class='flag-5'>本地</b><b class='flag-5'>部署</b>openWebUI + ollama+<b class='flag-5'>DeepSeek</b> 打造智能知识库并实现远程访问

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4683次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    边缘计算AI硬件如何接入DeepSeek吗?需要具备哪些条件?

    成本极低,R1模型的训练成本仅为560万美元,远低于美国科技巨头数亿美元乃至数十亿美元的投入。这一颠覆式创新打破了“更强大的硬件、更高的算力才是推动人工智能发展的关键”
    的头像 发表于 08-21 10:30 2044次阅读
    边缘计算AI硬件如何<b class='flag-5'>接入</b><b class='flag-5'>DeepSeek</b>吗?需要具备哪些条件?

    如何在NVIDIA Blackwell GPU上优化DeepSeek R1吞吐量

    开源 DeepSeek R1 模型的创新架构包含多头潜在注意力机制 (MLA) 和大型稀疏混合专家模型 (MoE),其显著提升了大语言模型
    的头像 发表于 08-12 15:19 4499次阅读
    如何在NVIDIA Blackwell GPU上优化<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>吞吐量

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型DeepSeek-R1采用
    的头像 发表于 07-25 15:22 1579次阅读
    速看!EASY-EAI教你离线<b class='flag-5'>部署</b><b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    的展望,大模型的训练方法、推理部署,到 GPU 硬件及推理模型的发展趋势,以前瞻性的视角为读者描绘了大模型的发展蓝图。 技惊四座的DeepSee
    发表于 07-17 11:59

    曙光AI解决方案助力北京农商银行提升业务效率

    今年以来,以DeepSeek为代表的人工智能大模型蓬勃发展。为抢抓技术变革窗口期,北京农商银行基于曙光AI解决方案的强劲算力,利用DeepAI深算智能引擎快速实现DeepSeek R1
    的头像 发表于 07-09 16:59 1247次阅读

    如何本地部署NVIDIA Cosmos Reason-1-7B模型

    下一步行动。本文将一步步带你在本地服务器上完成该模型部署,并搭建一个直观的 Web 交互界面,亲身体验前沿 AI 的“思考”过程。
    的头像 发表于 07-09 10:17 1014次阅读

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1432次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版<b class='flag-5'>部署</b>

    DeepSeek开源新版R1 媲美OpenAI o3

    ;还有一些网友的实测评价都显示, DeepSeek新版R1 的性能可以媲美OpenAI最新的o3模型高版本。妥妥的超高性价比的平替。 此外,关于DeepSeek
    的头像 发表于 05-29 11:23 1500次阅读

    ElfBoard技术实战|ELF 2开发板本地部署DeepSeek模型的完整指南

    ELF 2开发板本地部署DeepSeek模型的完整指南
    的头像 发表于 05-16 11:13 2778次阅读
    ElfBoard技术实战|ELF 2开发板<b class='flag-5'>本地</b><b class='flag-5'>部署</b><b class='flag-5'>DeepSeek</b>大<b class='flag-5'>模型</b>的完整指南

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型

    瑞萨RZ/V2H平台支持部署离线版DeepSeek -R1大语言模型
    的头像 发表于 05-13 17:07 1866次阅读
    瑞萨RZ/V2H平台支持<b class='flag-5'>部署</b>离线版<b class='flag-5'>DeepSeek</b> -<b class='flag-5'>R1</b>大语言<b class='flag-5'>模型</b>