0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

从DeepSeek到Qwen,AI大模型的移植与交互实战指南-飞凌嵌入式

飞凌嵌入式 2025-03-28 08:06 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在不久前发布的技术实战 | OK3588-C开发板上部署DeepSeek-R1大模型的完整指南一文中,小编为大家介绍了DeepSeek-R1在飞凌嵌入式OK3588-C开发板上的移植部署、效果展示以及性能评测,本篇文章不仅将继续为大家带来关于DeepSeek-R1的干货知识,还会深入探讨多种平台的移植方式,并介绍更为丰富的交互方式,帮助大家更好地应用大语言模型。

wKgZPGfmVmiAWX_lAAEuZvSlseo582.jpg

1、移植过程

1.1 使用RKLLM-Toolkit部署至NPU

RKLLM-Toolkit是瑞芯微为大语言模型(LLM)专门开发的转换与量化工具,可以将训练好的模型转化为适应瑞芯微平台的RKLLM格式。该工具针对大语言模型进行了优化,使其能高效地在瑞芯微的NPU(神经网络处理单元)上运行。上一篇文章中提到的部署方式即为通过RKLLM-Toolkit进行的NPU部署。具体步骤如下:

(1) 下载RKLLMSDK:

首先从GitHub下载RKLLMSDK包,并上传至虚拟机。SDK下载链接:

[GitHub- airockchip/rknn-llm](https://github.com/airrockchip/rknn-llm)。

wKgZO2fmVmiAbyrVAAHCyrtixI8410.png

(2) Python版本检查:

确保安装的SDK版本与目标环境兼容(目前只支持python3.8或python3.10)。

wKgZPGfmVmiAElUVAAAaAjF8RHA642.png

(3) 准备虚拟机环境:

在虚拟机中安装rkllm-toolkit轮子,轮子包路径(rknn-llm-main\rkllm-toolkit)。

pipinstall rkllm_toolkit-1.1.4-cp38-cp38-linux_x86_64.whl
wKgZPGfmVmiAaxYaAATePg4duaQ022.png

(4) 下载模型:

选择需要部署的DeepSeek-R1模型。

gitclonehttps://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
wKgZO2fmVmiAF8BeAAHfEzByIlI045.png

(5) 使用示例代码进行模型转换:

rknn-llm-main\examples\DeepSeek-R1-Distill-Qwen-1.5B_Demo路径下,使用RKLLM-Toolkit提供的示例代码进行模型格式转换。

pythongenerate_data_quant.py -m /path/to/DeepSeek-R1-Distill-Qwen-1.5B

pythonexport_rkllm.py

wKgZO2fmVmiAXpIdAAHmCYO8cX8717.png

(6) 编译可执行程序:

通过运行deploy下build-linux.sh脚本(将交叉编译器路径替换为实际路径)直接编译示例代码。这将在目录中生成一个文件夹,其中包含可执行文件和文件夹。

wKgZPGfmVmiAeQ7VAAEYivniTnM438.png

进行交叉编译生成可执行文件。

./build-linux.sh
wKgZPGfmVmmAXnpMAAOdCpj2wF0440.png

(7) 部署模型:

将已编译好的_W8A8_RK3588.rkllm文件和librkllmrt.so动态库文件(路径为:rknn-llm-main\rkllm-runtime\Linux\librkllm_api\aarch64 ),一同拷贝到编译后生成的build_linux_aarch64_Release文件夹内,然后将此文件夹上传到目标板端。

接着,为目标板端build_linux_aarch64_Release文件夹中的 llm_demo 文件添加执行权限并执行它。

chmod+x llm_demo

./llm_demo_W8A8_RK3588.rkllm 10000 10000

wKgZPGfmU3SAAoW3AA7EenqgLYw127.png演示效果图1

优势与不足:

- 优势:部署至NPU后,大语言模型能高效运行,性能表现优异,且对CPU资源的占用较少。

- 不足:相较于其他方法,部署过程稍显复杂,需要较强的技术背景和经验。

1.2 使用Ollama一键部署至CPU

Ollama是一个开源的本地化大型语言模型(LLM)运行框架,支持在本地环境下运行各种开源LLM模型(如LLaMA、Falcon等),并提供跨平台支持(macOS、Windows、Linux)。

通过Ollama,用户可以无需依赖云服务,轻松部署和运行各种大语言模型。尽管Ollama支持快速部署,但由于DeepSeek-R1尚未在RK3588芯片上进行优化,因此只能在CPU上运行,可能会占用较高的CPU资源。具体步骤如下:

(1) 下载Ollama:

根据需要下载并安装Ollama,

curl-fsSL https://ollama.com/install.sh | sh

若下载速度较慢,可参考以下镜像方式进行加速。

curl-fsSL https://ollama.com/install.sh -o ollama_install.sh

chmod+x ollama_install.sh

sed-i 's|https://ollama.com/download/|https://github.com/ollama/

ollama/releases/download/v0.5.7/|'ollama_install.sh

shollama_install.sh

wKgZO2fmVmmAd4kyAACJYlrcTnY676.png

(2) 查看Ollama结果:

确认Ollama正确安装,并运行相关命令查看部署结果。

Ollama--help
wKgZO2fmVmmAYThaAAAi9UvcNmY651.png

(3) 下载DeepSeek-R1:

从Ollama官网渠道获取下载DeepSeek-R1模型的指令。

wKgZPGfmVmmAWyiuAAEvREVFm5s693.png

(4) 运行DeepSeek-R1:

通过Ollama命令行接口启动DeepSeek-R1模型。

ollamarun deepseek-r1:1.5b
wKgZPGfmVFSABx8BAA7MStAj0Nc912.png演示效果图2

优势与不足:

- 优势:部署过程简便快捷,适合快速测试和应用。

- 不足:因模型未针对RK3588优化,在CPU上运行时可能导致较高的CPU占用,影响性能。

2、在FCU3001平台上部署其他大模型

除了DeepSeek-R1,Ollama还支持部署其他大语言模型,如通义千问(Qwen)等,这展示了Ollama的广泛适用性。接下来,我们以通义千问为例,在飞凌嵌入式推出的一款搭载英伟达处理器的AI边缘计算终端 FCU3001(基于NVIDIA Jetson Xavier NX处理器)上部署大语言模型:

FCU3001通过其强大的计算能力和优化的软件支持,能够高效地运行Ollama所支持的大语言模型,如通义千问。在部署过程中,我们可以充分利用Ollama提供的灵活性和易用性,确保大语言模型在FCU3001上稳定、流畅地运行。步骤如下:

(1) 安装CUDA环境:

可以使用NVIDIA Jetson Xavier NX的GPU来运行模型。Ollama的安装方法可以参考上述。

sudoapt update

sudoapt upgrade

sudoapt installnvidia-jetpack -y

(2) 进入Ollama官网:

浏览Ollama支持的其他模型。

wKgZPGfmVmmAXHDDAAEFRoKfPTA708.png

(3) 选择版本:

从Ollama支持的模型列表中选择千问Qwen1.8B版本。

wKgZO2fmVmmATSOyAAFfxX5o-dE485.png

(4) 运行模型:

在Ollama环境下,使用命令ollamarun qwen:1.8b启动通义千问模型。

ollamarunqwen:1.8b
wKgZPGfmVW2AbbrXAAlVShAbOXU649.png演示效果图3

3、交互方式

在前述的部署方式中,交互方式主要基于串口调试,缺少图形界面,无法展示图片、表单等元素,也不能呈现历史对话。为了提升用户体验,我们可以通过集成ChatboxUI或WebUI等方式,提供更为丰富的交互体验。

3.1 Chatbox UI

Chatbox是一款集成多种语言模型的AI助手工具,支持如ChatGPT、Claude等多种模型。它不仅具备本地数据存储和多语言切换功能,还支持图像生成、Markdown和LaTeX等格式,提供人性化的界面和团队协作功能。Chatbox支持Windows、macOS、Linux系统,用户可在本地快速实现对大语言模型的交互。步骤如下:

(1) 下载Chatbox:

从Chatbox官网(https://chatboxai.app/zh)下载适合的安装包。

wKgZO2fmVmmAPY4MAACZn-eGOjM973.png

(2) 安装并配置:

下载完成后是一个Chatbox-1.10.4-arm64.AppImage的文件,其实就是一个可执行文件,添加权限即可运行,就可以配置本地ollamaAPI下的LLM模型了。

chmod+x Chatbox-1.10.4-arm64.AppImage

./Chatbox-1.10.4-arm64.AppImage

wKgZPGfmVmmAWa2AAAGXJrIoWSg309.pngwKgZO2fmVmqAFCx5AAHPhadVnTo718.png

(3) 问答对话:

用户可以通过直观的图形界面与模型进行交流,体验更为便捷、流畅的交互。

wKgZPGfmVcWAFgVQABA2QXKD9Ks577.png

演示效果图4

3.2 Web UI

WebUI通过网页或网络应用提供图形化用户界面,使得用户能够轻松通过浏览器与大语言模型进行交互。用户只需在浏览器中访问相应的IP地址和端口号,即可进行实时提问。步骤如下:

(1) Web UI环境搭建:

配置WebUI所需的环境。WebUI建议使用python3.11版本。所以使用的Miniconda创建python==3.11虚拟环境。

安装Miniconda

wgethttps://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-aarch64.sh

chmod+x Miniconda3-latest-Linux-aarch64.sh

./Miniconda3-lates

wKgZPGfmVmqAQmZJAAFPhzFOWFg180.png

搭建WebUI环境。

condacreate --name Web-Ui python=3.11

condaactivate Web-Ui

pipinstall open-webui -i https://pypi.tuna.tsinghua.edu.cn/simple


(2) 启动WebUI:

使用open-webuiserve启动WebUI应用,服务器的IP地址和端口号为0.0.0.0:8080。

open-webuiserve

(3) 访问WebUI:

在浏览器中输入IP地址和端口号,打开WebUI界面,开始与大语言模型互动。

注册账号

wKgZO2fmVgCAbhbbAA-lBQNtgTA379.png演示效果图5

4、总结

本文全面展示了OK3588-C开发板及FCU3001边缘AI网关上大语言模型的多种移植方式,并介绍了如何通过ChatboxUI和WebUI等多种交互方式提升用户体验。

飞凌嵌入式推出了多款嵌入式AI产品,如OK3588-C、OK3576-C、OK-MX9352-C、OK536-C等开发板,还有AI边缘计算终端FCU3001,算力范围从0.5TOPS到21TOPS不等,可以满足不同客户的AI开发需求。如果您对这些产品感兴趣,欢迎随时与我们联系,飞凌嵌入式将为您提供详细的技术支持与指导。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 嵌入式
    +关注

    关注

    5186

    文章

    20166

    浏览量

    329099
  • 移植
    +关注

    关注

    1

    文章

    408

    浏览量

    29226
  • AI
    AI
    +关注

    关注

    90

    文章

    38207

    浏览量

    297064
  • 飞凌嵌入式
    +关注

    关注

    5

    文章

    107

    浏览量

    752
  • AI大模型
    +关注

    关注

    0

    文章

    395

    浏览量

    942
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    嵌入式2025嵌入式及边缘AI技术论坛圆满结束

    嵌入式「2025嵌入式及边缘AI技术论坛」在深圳深铁皇冠假日酒店盛大举行,此次活动邀请到了200余位
    的头像 发表于 04-28 13:57 3854次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2025<b class='flag-5'>嵌入式</b>及边缘<b class='flag-5'>AI</b>技术论坛圆满结束

    嵌入式技术创新日(深圳站)精彩回顾

    向前,5大展区便映入眼帘。 全产品矩阵展区展示了嵌入式丰富的产品线,嵌入式板卡到工控机,再到丰富的动态演示方案,无不体现了
    发表于 08-28 09:06

    RK3588开发板上部署DeepSeek-R1大模型的完整指南

    实用的建议,成为用户在各领域探索时的可靠伙伴。 (1)普通信息搜索 DeepSeek-R1能够快速检索并提供准确的信息。例如,当询问“保定嵌入式技术有限公司”时,
    发表于 02-27 16:45

    Deepseek移植i.MX 8MP|93 EVK的步骤

    此共享介绍了如何将 deepseek 移植i.MX93EVK使用 llama.cpp 的 Yocto BSP 本文档使用的主要测试模型是在 dee
    发表于 03-26 06:08

    关于飞嵌入式

    `企业概况保定嵌入式技术有限公司是华智集团旗下的一家专注于ARM嵌入式核心控制系统研发、设计和生产的专业板卡制造企业。经过多年发展,公司拥有了业内一流的软硬件研发团队,建立了北京和
    发表于 05-13 17:30

    浅谈公司嵌入式开发板的一键烧写

    、Cortex-A9等全系列的ARM开发板,所以对嵌入式的理解有其独到的见解,公司的一键烧写的方式可以窥见一斑,其一键烧写功能普遍应用于飞
    发表于 05-20 16:43

    嵌入式FET2440核心板介绍

    嵌入式
    的头像 发表于 12-02 09:07 3995次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>FET2440核心板介绍

    坐标苏州,嵌入式华东技术服务中心成立

    嵌入式“华东技术服务中心”在苏州正式成立,这是继华南技术服务中心(深圳)之后嵌入式开设的
    的头像 发表于 06-16 09:13 1161次阅读
    坐标苏州,<b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>华东技术服务中心成立

    嵌入式「端午节放假通知」

    嵌入式「端午节放假通知」
    的头像 发表于 06-07 08:02 936次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>「端午节放假通知」

    剧透!「嵌入式技术创新日」3大亮点抢先看

    6月25日,嵌入式技术创新日(北京站)即将开幕,一场嵌入式前沿科技的高端局就在眼前。
    的头像 发表于 06-20 17:05 1439次阅读
    剧透!「<b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>技术创新日」3大亮点抢先看

    嵌入式2024年度盘点】乘风破浪,奋力前行

    2024年即将落下帷幕,回首这一年,嵌入式乘风破浪,奋力前行,创造了发展新篇章,站在2025年的开端,让我们重温
    的头像 发表于 01-04 13:22 1399次阅读
    【<b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2024年度盘点】乘风破浪,奋力前行

    新生态 智未来「嵌入式2025嵌入式及边缘AI技术论坛」开启报名!

    在这个技术日新月异的时代,每一场思想的碰撞都可能成为推动行业前行的力量,每一次深度对话都可能迸发出改变时代的强光——2025年4月22日,嵌入式将在深圳举办“2025嵌入式及边缘
    的头像 发表于 03-28 08:05 1027次阅读
    新生态 智未来「<b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2025<b class='flag-5'>嵌入式</b>及边缘<b class='flag-5'>AI</b>技术论坛」开启报名!

    嵌入式「2025嵌入式及边缘AI技术论坛」议程公布

    4月22日,嵌入式“2025嵌入式及边缘AI技术论坛”将在深圳举行,论坛以“新生态,智未来”为主题,旨在汇聚行业智慧,探讨
    的头像 发表于 04-02 15:12 1085次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>「2025<b class='flag-5'>嵌入式</b>及边缘<b class='flag-5'>AI</b>技术论坛」议程公布

    嵌入式2025嵌入式及边缘AI技术论坛圆满结束

    技术的盛宴! 1、精彩纷呈的展区 产品及方案展区是本场活动的第一场重头戏,硬件产品软件系统,企业级应用到高校教学应用,都吸引了现场来宾的驻足观看和交流讨论。 全产品矩阵展区 展示了
    的头像 发表于 04-27 11:55 618次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2025<b class='flag-5'>嵌入式</b>及边缘<b class='flag-5'>AI</b>技术论坛圆满结束

    嵌入式2026届校园招聘正式启动!

    嵌入式2026届校园招聘正式启动!
    的头像 发表于 09-19 08:03 621次阅读
    <b class='flag-5'>飞</b><b class='flag-5'>凌</b><b class='flag-5'>嵌入式</b>2026届校园招聘正式启动!