0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

deepin UOS AI接入DeepSeek-R1模型

深度操作系统 来源:深度操作系统 2025-02-08 09:52 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

DeepSeek-R1 模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧模型!无需忍受服务器崩溃,两步即可在本地独享 DeepSeek-R1 模型带来的震撼体验。

本次,我们为大家提供了「离线部署」「在线接入」两种方式在 UOS AI 中使用 DeepSeek-R1 模型,大家可根据自身设备及网络环境等情况自行选择:

方法一:使用 deepin 官方适配的 UOS AI DeepSeek-R1 1.5B 模型离线部署

方法二:使用 UOS AI 的自定义模型接口在线接入 DeepSeek-R1 API

注:离线部署方式支持 deepin 23、deepin 25 Preview 系统使用;在线接入方式支持 UOS V20、deepin 20.9、deepin 23、deepin 25 Preview 系统使用。

方法一

UOS AI 离线部署 DeepSeek-R1 1.5B 模型

Step 1:更新 UOS AI 及向量化模型插件

若您正在使用 deepin 23,可从应用商店更新 UOS AI 至最新版。

注:若您是首次在 deepin 中下载使用 UOS AI,根据界面提示「勾选用户使用协议-免费领取试用账号」后即可直接进入 UOS AI 全新版本。

若您正在使用 deepin 25 Preview,请通过以下命令升级 UOS AI 至最新版。

sudo apt update
sudo apt install uos-ai deepin-modelhub uos-ai-rag

更新完成后,打开 UOS AI 的「设置」选项,在「模型配置-本地模型」中选择「向量化模型插件-安装/更新」,随后将自动跳转至应用商店界面,点击安装/更新即可。

Step 2:安装 DeepSeek-R1 模型 GGUF 版本

UOS AI 的模型后端驱动框架是基于 llama.cpp,大家可直接在魔搭社区找到 DeepSeek-R1 的 GGUF 版本。

此处我们将以最通用且便捷的1.5B 模型为例,其模型大小适中,对硬件配置要求不高,仅需 CPU 即可实现流畅推理。(若您正在使用 CUDA推理,可以等后续 deepin 系统更新 CUDA 版本的推理后端框架)。

已适配 UOS AI 的 DeepSeek-R1 1.5B 模型的下载地址如下:

百度网盘:https://pan.baidu.com/s/1-786vFU4dunpdproiOHdbQ?pwd=zxxw

123网盘:https://www.123865.com/s/XXsfjv-Jjcph

123网盘(备用):https://www.123684.com/s/XXsfjv-Jjcph

夸克网盘:https://pan.quark.cn/s/edbf721fefaf

将模型文件下载完成后,打开文件管理器,直接进入如下目录:

/home/用户名/.local/share/deepin-modelhub/models    #其中用户名替换为自己的计算机用户名

注:若没有 deepin-modelhub 文件夹以及下面的 models 文件夹,可以自己手动创建该文件夹。

进入 models 文件夹,将下载完成的模型文件夹解压后,直接复制到刚刚创建的文件夹路径中,注意检查路径不要有多的名称。模型完整路径如下:

/home/用户名/.local/share/deepin-modelhub/models/DeepSeek-R1-1.5B/gguf   #其中用户名替换为自己的计算机用户名

经过上述步骤,再次打开 UOS AI 界面,即可手动切换使用 DeepSeek-R1-1.5B 模型。

以下是一个简单的 DeepSeek-R1 运行示例:

方法二

UOS AI 在线接入 DeepSeek-R1 API

Step 1:获取 API key

访问 DeepSeek 官网,注册/登录账号后,创建并获取API key。若由于服务器压力等问题无法访问以上页面,也可以使用其他访问渠道获取 API key。

本文将以硅基流动为例,在注册/登录账号后,前往 API 密钥管理页面,创建并获取 API key。

Step 2:在 UOS AI 中接入 DeepSeek-R1 在线模型

打开 UOS AI 的「设置」选项,在「模型配置」中选择「在线模型-添加」,进入UOS AI的添加模型界面。

完成添加窗口中的内容填写,并点击确定即可,本例中使用到的信息参考如下:

账号名称:自定义

模型类型:自定义

API key:粘贴 Step 1 中所复制的 API 密钥

模型名:deepseek-ai/DeepSeek-R1

请求地址:https://api.siliconflow.cn/v1/chat/completions

填写完毕并提交确认后,即可在 UOS A I中选择 DeepSeek-R1 模型进行使用。

理论上只要您硅基流动账户中的余额够用,其模型仓库的所有模型都可以通过上述方法在 UOS AI 中配置调用,只需在上述配置方法中的模型名处填写对应的完整模型名称即可,其它不变。

需要注意的是,在线大模型受网络及用户访问量影响,偶尔可能会出现访问慢、超时或无法访问的情况,建议多次尝试即可。

在线模型由于当前适配问题,DeepSeek 深度思考的内容与对话内容尚未分开,但这并不影响正常使用,UOS AI 团队会在后续更新中尽快优化体验。

最后感谢社区用户「陈正勇」提供的在线配置方案参考~体验过程中有任何建议或问题,欢迎大家在评论区留言,或前往deepin 社区论坛讨论交流,优质反馈将有机会获得 deepin 官方周边礼品噢!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    91

    文章

    40935

    浏览量

    302512
  • 模型
    +关注

    关注

    1

    文章

    3810

    浏览量

    52253
  • DeepSeek
    +关注

    关注

    2

    文章

    837

    浏览量

    3392

原文标题:deepin UOS AI 无缝接入 DeepSeek-R1 模型!离线、在线都支持!

文章出处:【微信号:linux_deepin,微信公众号:深度操作系统】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    百度腾讯抢滩布局!DeepSeek-R1升级和开源背后,国产AI的逆袭之路

    电子发烧友网报道(文/李弯弯)日前,DeepSeek官方宣布DeepSeek-R1模型已完成小版本试升级,当前版本为DeepSeek-R1-0528。次日,
    的头像 发表于 06-03 06:34 6351次阅读

    DeepSeek R1 MTP在TensorRT-LLM中的实现与优化

    。我们在之前的博客[1] 中介绍了 DeepSeek-R1 模型实现超低推理延迟的关键优化措施。本文将深入探讨 TensorRT-LLM 中的 MTP 实现与优化。
    的头像 发表于 08-30 15:47 4652次阅读
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b> MTP在TensorRT-LLM中的实现与优化

    边缘计算AI硬件如何接入DeepSeek吗?需要具备哪些条件?

    2025年伊始,一款来自中国初创公司“深度求索”的AI模型DeepSeek横空出世,惊艳全球。DeepSeek厉害之处在于,在中国被外国芯片封锁的背景下,在性能上接近美国顶尖
    的头像 发表于 08-21 10:30 2025次阅读
    边缘计算<b class='flag-5'>AI</b>硬件如何<b class='flag-5'>接入</b><b class='flag-5'>DeepSeek</b>吗?需要具备哪些条件?

    速看!EASY-EAI教你离线部署Deepseek R1模型

    1.Deepseek简介DeepSeek-R1,是幻方量化旗下AI公司深度求索(DeepSeek)研发的推理模型
    的头像 发表于 07-25 15:22 1560次阅读
    速看!EASY-EAI教你离线部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>

    【「DeepSeek 核心技术揭秘」阅读体验】+混合专家

    感谢电子发烧友提供学习Deepseek核心技术这本书的机会。 读完《Deepseek核心技术揭秘》,我深受触动,对人工智能领域有了全新的认识。了解Deepseek-R1Deepseek
    发表于 07-22 22:14

    【「DeepSeek 核心技术揭秘」阅读体验】--全书概览

    讲解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架构、训练框架、推理阶段优化、后训练优化等关键技术 第四章关于DeepSeek-R1的技术剖析 第五章 从
    发表于 07-21 00:04

    【「DeepSeek 核心技术揭秘」阅读体验】书籍介绍+第一章读后心得

    实现三重超越;而对开源生态、技术趋势的前瞻探讨,则印证了DeepSeek“用开源击穿技术壁垒”的初心。 当DeepSeek-R1以60TPS的生成速度刷新认知,当蒸馏模型让尖端AI跑进
    发表于 07-17 11:59

    信而泰×DeepSeekAI推理引擎驱动网络智能诊断迈向 “自愈”时代

    DeepSeek-R1:强大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基础技术研究有限公司开发的新一代AI模型。其核心优势
    发表于 07-16 15:29

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1410次阅读
    Arm Neoverse N2平台实现<b class='flag-5'>DeepSeek-R1</b>满血版部署

    NVIDIA Blackwell GPU优化DeepSeek-R1性能 打破DeepSeek-R1在最小延迟场景中的性能纪录

    本文将探讨 NVIDIA TensorRT-LLM 如何基于 8 个 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延迟场景中的性能纪录:在 GTC 2025
    的头像 发表于 07-02 19:31 3542次阅读
    NVIDIA Blackwell GPU优化<b class='flag-5'>DeepSeek-R1</b>性能 打破<b class='flag-5'>DeepSeek-R1</b>在最小延迟场景中的性能纪录

    【书籍评测活动NO.62】一本书读懂 DeepSeek 全家桶核心技术:DeepSeek 核心技术揭秘

    2025年年初,DeepSeek 成为全球人工智能(AI)领域的焦点,其DeepSeek-V3 和DeepSeek-R1 版本在行业内引发了结构性震动。
    发表于 06-09 14:38

    智多晶FPGA设计工具HqFpga接入DeepSeek模型

    AI 赋能工程设计的时代浪潮中,智多晶率先迈出关键一步——智多晶正式宣布旗下 FPGA 设计工具 HqFpga 接入 DeepSeek模型,并推出 FPGA 设计专属
    的头像 发表于 06-06 17:06 1725次阅读

    使用瑞萨MPU芯片RZ/V2H部署DeepSeek-R1模型

    DeepSeek大语言模型(LLM)可用于理解人类语言的交互方式,思考,并给出合适的回应。
    的头像 发表于 05-15 14:40 1129次阅读
    使用瑞萨MPU芯片RZ/V2H部署<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>模型</b>

    SAP实施专家解答:如何用DeepSeek-R1实现需求沟通效率倍增

    工博科技分享AI工具链在IT项目中的深度应用:通过DeepSeek-R1实现智能会议记录结构化(2小时会议5分钟生成决策表)和精准多语言文档翻译(错误率降低14%),帮助IT团队将重复性工作耗时减少
    的头像 发表于 04-28 09:13 808次阅读

    【幸狐Omni3576边缘计算套件试用体验】CPU部署DeekSeek-R1模型1B和7B)

    一、DeepSeek简介 DeepSeek是由中国深度求索公司开发的开源大语言模型系列,其研发始于2023年,目标是为学术界和产业界提供高效可控的AI基础设施。
    发表于 04-21 00:39