0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OrangePi AI Studio运行Deepseek-R1蒸馏模型,开启你的AI之旅

香橙派 2025-02-11 10:15 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

2025年蛇年春节,DeepSeek强势出圈,以十分之一的训练成本比肩OpenAI GPT-4o的性能,重塑AI世界新秩序。DeepSeek向全世界开源,为全球的数据科学家、AI爱好者乃至中小开发者开辟了一条通往前沿技术的道路。

DeepSeek是一款集成多种AI技术的开发平台,旨在为用户提供高效、便捷的AI模型训练、部署和应用服务。它支持自然语言处理(NLP)、计算机视觉(CV)、语音识别等多个领域的任务,还提供丰富的预训练模型和工具,帮助用户快速构建和优化AI应用。

DeepSeek点燃了AI应用。今天,我们就给大家分享如何利用手中的设备运行Deepseek。我们所采用的设备是OrangePi AI Studio。

wKgZPGeqsHyALNbIAAL5MNGGlJI653.png

OrangePi AI Studio:高算力人工智能算力卡

OrangePi AI Studio采用昇腾AI技术路线,融合“ARM core,AI core,Vector core,Image core”于一体,提供“基础通用算力+超强AI算力+编解码核心”,充分满足推训一体AI任务需求,拥有48GB /96GB LPDDR4X,速率高达4266Mbps。

wKgZPGeqsH2AVsH9AAajDfrCWic698.png

OrangePi AI Studio汇聚了Type-C(USB4.0)、电源接口、电源按键、LED指示灯等,可广泛应用于OCR识别、目标识别、人脸识别、搜索推荐、大模型多模态、内容审核、VR智能、数字医疗、物联网等诸多AI应用场景。

OrangePi AI Studio当前支持Ubuntu22.04.5、内核linux5.15.0.126,即将支持Windows,满足市场对于算力的强烈需求,降低用户的学习成本、开发成本和运营成本。

实操指南:OrangePi AI Studio运行Deepseek

1.1硬件连接

使用USB4数据线连接opi ai studio和Ubuntu PC。开启Ubuntu PC,参考用户手册中驱动安装步骤安装驱动。

正确连接opi ai studio和pc后,在pc开机状态下,左右两侧指示灯常亮,中间指示灯闪烁。

wKgZPGeqsH6AfCaoAAxIFth9zOg172.png

1.2下载docker镜像

1)首先在Ubuntu电脑中安装下docker软件,安装完docker后如果使用docker -v命令能看到版本号说明安装成功。

#apt update

#apt install -y docker.io

#docker -v

2)打开下面的链接,再点击ATB-Models下载选项:

https://www.hiascend.com/developer/download/community/result?module=ie%2Bpt%2Bcann

wKgZPGeqsHyAHC5PAAMwVTINt70709.png

3)然后点击镜像版本中的1.0.0-300I-Duo-py311-openeuler24.03-lts对应的下载选项。

wKgZO2eqsHyAJxbFAAJroE04LI4339.png

4)点击1.0.0-300I-Duo-py311-openeuler24.03-lts右侧的立即下载后会显示下面的安装步骤:

wKgZPGeqsHyASfG_AAGAgh6T2WU449.png

a)使用root用户运行下面的命令获取登录访问权限,然后输入密码登录。不同账号看到的下载地址是不一样的,按照实际获取的信息填写。

#docker login -u cn-south-1@ADW7CJ164S04NRFEELZP swr.cn-south-1.myhuaweicloud.com

Password:

WARNING! Your password will be stored unencrypted in /root/.docker/config.json.

Configure a credential helper to remove this warning. See

https://docs.docker.com/engine/reference/commandline/login/#credential-stores

Login Succeeded

b)然后下载镜像即可。

#docker pull swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts

c)下载好的镜像如下所示:

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

1.3 使用docker镜像的方法

1)在任意位置创建一个名为start-docker.sh的启动脚本,内容如下所示:

#vim start-docker.sh

IMAGES_ID=$1

NAME=$2

if [ $# -ne 2 ]; then

echo "error: need one argument describing your container name."

exit 1

fi

docker run --name ${NAME} -it -d --net=host --shm-size=500g \

--privileged=true \

-w /home \

--device=/dev/davinci_manager \

--device=/dev/hisi_hdc \

--device=/dev/devmm_svm \

--entrypoint=bash \

-v /models:/models \

-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \

-v /usr/local/dcmi:/usr/local/dcmi \

-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \

-v /usr/local/sbin:/usr/local/sbin \

-v /home:/home \

-v /tmp:/tmp \

-v /usr/share/zoneinfo/Asia/Shanghai:/etc/localtime \

-e http_proxy=$http_proxy \

-e https_proxy=$https_proxy \

${IMAGES_ID}

2)然后查看下docker镜像的IMAGE ID。

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

3)然后依次执行如下命令启动并进入容器:

a.首先运行start-docker.sh脚本创建运行容器,此命令只需执行一次。74a5b9615370是我们上一步中查询到的docker镜像ID,mindIE是我们自定义的容器名,可以自行更改,之后进入docker容器的时候需要使用这个名字。

#chmod +xstart-docker.sh

#bash start-docker.sh74a5b9615370deepseek

b.然后运行下面的命令进入容器命令行。

#docker exec -itdeepseekbash

1.4 DeepSeek-R1-Distill-Qwen-14B

1)依次执行下面的命令,下载DeepSeek-R1-Distill-Qwen-14B模型权重,将其放到/models目录下。如无法下载可参考国内模型网站使用方法一小节的方法通过国内模型网站下载。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-14B

2)如果是32GB或32GB以下内存的电脑,需要加大内存交换分区的大小,不然转换权重和执行推理程序时会由于内存不够而退出。这一步请在物理机上执行,不支持在docker容器内执行

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令释放空间

#swapoff /swap_model

#rm /swap_model

3)使用chown命令将/models/DeepSeek-R1-Distill-Qwen-14B目录及其所有文件的所有者和组更改为root用户和root组。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-14B

4)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-14B/ --max_output_length 256

5)推理成功后,在输出的最后,可以找到Question和Answer,结果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

6)纯模型能够正常推理后,我们修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-14B",

"worldSize" :1,

7)我们需要先修改模型目录下的config.json文件的权限为640,否则无法启动server服务。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-14B/config.json

8)执行以下命令启动MindIE Server服务,如果最后有如下的输出,表示启动成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

9)接着拉取聊天机器人案例代码。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

10)安装依赖。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

11)启动聊天机器人demo程序。启动后,会打印如下信息,复制其中的url到浏览器打开。

a)首先程序会自动查询当前设备上MindIE中运行的模型信息,并打印出来。

b)如果提示暂不支持,请核对MindIE Server中的“modelName”字段。

c)然后等一会就会打印两个ip地址。第一个url只能在启动主程序的电脑上访问,第二个url可以通过和启动主程序的电脑同一网络下的设备访问。

# python3 main.py

检测到mindie server中启动了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

12)浏览器打开上面的链接后我们可以看到下面这个页面,左侧提供了一些问题,点击可以直接提问。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

1.5 DeepSeek-R1-Distill-Qwen-1.5B

13)依次执行下面的命令,下载DeepSeek-R1-Distill-Qwen-14B模型权重,将其放到/models目录下。如无法下载可参考国内模型网站使用方法一小节的方法通过国内模型网站下载。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

14)如果是32GB或32GB以下内存的电脑,需要加大内存交换分区的大小,不然转换权重和执行推理程序时会由于内存不够而退出。这一步请在物理机上执行,不支持在docker容器内执行

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令释放空间

#swapoff /swap_model

#rm /swap_model

15)使用chown命令将/models/DeepSeek-R1-Distill-Qwen-1.5B目录及其所有文件的所有者和组更改为root用户和root组。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-1.5B

16)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-1.5B/ --max_output_length 256

17)推理成功后,在输出的最后,可以找到Question和Answer,结果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

18)纯模型能够正常推理后,我们修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-1.5B",

"worldSize" :1,

19)我们需要先修改模型目录下的config.json文件的权限为640,否则无法启动server服务。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-1.5B/config.json

20)执行以下命令启动MindIE Server服务,如果最后有如下的输出,表示启动成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

21)接着拉取聊天机器人案例代码。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

22)安装依赖。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

23)启动聊天机器人demo程序。启动后,会打印如下信息,复制其中的url到浏览器打开。

a)首先程序会自动查询当前设备上MindIE中运行的模型信息,并打印出来。

b)如果提示暂不支持,请核对MindIE Server中的“modelName”字段。

c)然后等一会就会打印两个ip地址。第一个url只能在启动主程序的电脑上访问,第二个url可以通过和启动主程序的电脑同一网络下的设备访问。

# python3 main.py

检测到mindie server中启动了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

24)浏览器打开上面的链接后我们可以看到下面这个页面,左侧提供了一些问题,点击可以直接提问。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    90

    文章

    38272

    浏览量

    297330
  • 开发板
    +关注

    关注

    25

    文章

    6144

    浏览量

    113842
  • orange pi
    +关注

    关注

    0

    文章

    45

    浏览量

    3109
  • DeepSeek
    +关注

    关注

    2

    文章

    825

    浏览量

    2845
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    香橙派发布OrangePi RV2本地部署Deepseek-R1蒸馏模型指南

    继香橙派昇腾系列产品、OrangePi5系列产品完成与DeepSeek模型的深度适配之后,香橙派日前官方发布OrangePiRV2运行Deepsee
    的头像 发表于 03-28 11:55 1452次阅读
    香橙派发布<b class='flag-5'>OrangePi</b> RV2本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸馏</b><b class='flag-5'>模型</b>指南

    如何使用OpenVINO运行DeepSeek-R1蒸馏模型

    DeepSeek-R1在春节期间引发了全球科技界的热度,DeepSeek-R1 是由 DeepSeek 开发的开源推理模型,用于解决需要逻辑推理、数学问题解决和实时决策的任务。
    的头像 发表于 03-12 13:45 2069次阅读
    如何使用OpenVINO<b class='flag-5'>运行</b><b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>蒸馏</b><b class='flag-5'>模型</b>

    RK3588开发板上部署DeepSeek-R1模型的完整指南

    DeepSeek作为国产AI大数据模型的代表,凭借其卓越的推理能力和高效的文本生成技术,在全球人工智能领域引发广泛关注。DeepSeek-R1作为该系列最新迭代版本,实现了长文本处理效
    发表于 02-27 16:45

    Infinix AI接入DeepSeek-R1满血版

    传音控股旗下Infinix品牌正式宣布接入DeepSeek-R1满血版,2月26日起支持XOS 14.5及以上版本的Infinix机型可通过升级使用,3月份将发布的全新NOTE系列也将接入DeepSeek-R1开启“Infin
    的头像 发表于 02-21 16:08 1213次阅读

    香橙派发布OrangePi 5Plus本地部署Deepseek-R1蒸馏模型指南

    派官方发布OrangePi5Plus运行Deepseek-R1蒸馏模型实操指南,赶紧收藏起来吧!Oran
    的头像 发表于 02-19 16:14 1610次阅读
    香橙派发布<b class='flag-5'>OrangePi</b> 5Plus本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸馏</b><b class='flag-5'>模型</b>指南

    香橙派发布OrangePi AIpro(20T)本地部署Deepseek-R1蒸馏模型指南!

    日前,香橙派官方发布OrangePiAIpro(20T)运行Deepseek-R1蒸馏模型实操指南,帮助用户通过先进算力和硬件架构实现高效的端侧智能。OrangePiAIpro(20T
    的头像 发表于 02-14 16:29 1872次阅读
    香橙派发布<b class='flag-5'>OrangePi</b> AIpro(20T)本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸馏</b><b class='flag-5'>模型</b>指南!

    了解DeepSeek-V3 和 DeepSeek-R1两个大模型的不同定位和应用选择

    DeepSeek-V3 和 DeepSeek-R1 是深度求索公司(DeepSeek)推出的两个不同定位的大模型,其核心差异主要体现在目标场景、能力侧重和技术优化方向上。以下是二者的实
    发表于 02-14 02:08

    IBM企业级AI开发平台watsonx.ai上线DeepSeek R1蒸馏模型

    IBM日前宣布,DeepSeek-R1 的 Llama 3.1 8B 和 Llama 3.3 70b 蒸馏版本现已在 IBM 的企业级 AI 开发平台 watsonx.ai 上提供。
    的头像 发表于 02-12 10:02 834次阅读

    端侧AI元年爆发!广和通AI模组及解决方案全面支持DeepSeek-R1蒸馏模型

    近期,国产大模型DeepSeek凭借开放性、更低训练成本、端侧部署等优势,迅速成为增速最快的AI应用之一,推动AI普惠化。目前,广和通高算力AI
    的头像 发表于 02-11 18:08 862次阅读
    端侧<b class='flag-5'>AI</b>元年爆发!广和通<b class='flag-5'>AI</b>模组及解决方案全面支持<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>蒸馏</b><b class='flag-5'>模型</b>

    广和通支持DeepSeek-R1蒸馏模型

    近期,国产大模型DeepSeek凭借开放性、更低训练成本、端侧部署等优势,迅速成为增速最快的AI应用之一,推动AI普惠化。目前,广和通高算力AI
    的头像 发表于 02-11 09:41 921次阅读

    AIBOX 全系产品已适配 DeepSeek-R1

    国产AI模型DeepSeek以出色的性价比和高效的模型技术,迅速成为全球AI关注的焦点。Firefly开源团队率先实现AIBOX系列产品对
    的头像 发表于 02-08 17:30 955次阅读
    AIBOX 全系产品已适配 <b class='flag-5'>DeepSeek-R1</b>

    DeepSeek-R1本地部署指南,开启AI探索之旅

    R1 2025.01.20 DeepSeek-R1 发布,DeepSeek R1DeepSeek
    的头像 发表于 02-08 10:30 8454次阅读
    <b class='flag-5'>DeepSeek-R1</b>本地部署指南,<b class='flag-5'>开启</b><b class='flag-5'>你</b>的<b class='flag-5'>AI</b>探索<b class='flag-5'>之旅</b>

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自发布以来吸引了众多用户关注,为了让 deepin 用户更好地体验这一前沿技术,UOS AI 现已适配接入 DeepSeek-R1 端侧
    的头像 发表于 02-08 09:52 2247次阅读

    芯动力神速适配DeepSeek-R1模型AI芯片设计迈入“快车道”!

    近期,国产大模型 DeepSeek-R1横空出世,迅速成为AI领域的焦点。 芯动力在24小时内完成了与DeepSeek-R1模型的适配。
    的头像 发表于 02-07 16:55 918次阅读
    芯动力神速适配<b class='flag-5'>DeepSeek-R1</b>大<b class='flag-5'>模型</b>,<b class='flag-5'>AI</b>芯片设计迈入“快车道”!

    DeepSeek-R1全尺寸版本上线Gitee AI

    DeepSeek 全套蒸馏模型以及 V3 版本上线后,经过 Gitee AI 和沐曦团队两天紧锣密鼓的适配和机器筹备,DeepSeek-R1
    的头像 发表于 02-07 15:25 1861次阅读