0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

OrangePi KunPeng Pro部署AI模型介绍

嵌入式小生 来源:嵌入式小生 2024-11-16 11:03 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

一、OrangePi Kunpeng Pro简介

OrangePi Kunpeng Pro是一款香橙派联合华为精心打造的高性能板卡,搭载了鲲鹏处理器,可提供8TOPS INT8计算能力,板卡设计很精致,板载资源也非常多:

•拥有以太网Wi-Fi+蓝牙功能,提供多种可选择的网络接入方式。

• 2个USB3.0 Host、1个支持USB3.0的Type-C接口:可接入鼠标、键盘、USB摄像头等设备,方便板卡操作。

• 2个HDMI接口、1 个 MIPI DSI 2 Lane接口,提供两种显示方案。

•引出了40 pin 扩展口,可扩展UARTI2C、SPI、PWM 和 GPIO 等接口功能。板卡完整接口如下图所示:

6df431fa-9072-11ef-a511-92fbcf53809c.png

板卡扩展出的功能很多,能够满足很多应用场景和行业的开发需求,本文将描述使用OrangePi Kunpeng Pro来部署AI大模型,记录分析模型运行期间板卡的状态和模型运行效果。

二、环境搭建

(1)首先取出板卡,为板卡接入一个HDMI显示屏、一个无线蓝牙鼠标、一个有线键盘,接着接通电源,完成后如下图所示:

6e24a308-9072-11ef-a511-92fbcf53809c.png

(2)随后板卡将自动启动运行openEuler操作系统,接着我们进入终端:

6e526c20-9072-11ef-a511-92fbcf53809c.png

(3)查看下存储容量:

6e8af194-9072-11ef-a511-92fbcf53809c.png

从上图可知目前可用容量很大,可满足小量级离线模型的存储。

板卡运行openEuler非常流畅,使用体验感非常好。

(4)选择网络接入方式,本文使用Wifi接入。

(5)更改CPU为AI CPU

6eb4ec10-9072-11ef-a511-92fbcf53809c.png

从上图中可知目前板卡有3个AI CPU和1个control CPU。

接着就进行模型运行环境搭建和模型部署了。

三、模型运行环境搭建

(1)下载Ollama用于启动并运行大型语言模型

由于在线下载Ollama速度较慢,故而使用手动方式安装Ollama,首先从下列地址下载Ollama:

https://ollama.com/download/ollama-linux-arm64

6ed951ea-9072-11ef-a511-92fbcf53809c.png

完成后将其通过ssh方式传输到板卡。接着将其重名为ollama,便于命令操作,然后将ollama复制到/usr/bin目录中并赋予可执行权限:

sudochmod+x/usr/bin/ollama

(2)配置ollama系统服务

使用以下命令创建ollama服务描述文件:

sudotouch/etc/systemd/system/ollama.service

并在文件中编辑如下内容:

[Unit]
Description=OllamaService
After=network-online.target

[Service]
ExecStart=/usr/bin/ollamaserve
User=root
Group=root
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

(3)启动ollama服务

使用下述命令启动ollama服务:

sudosystemctldaemon-reload
sudosystemctlenableollama

(4)启动ollama

使用下述命令启动ollama:

sudosystemctlstartollama

(5)查看ollama运行状态

使用如下命令查看ollama运行状态:

systemctlstatusollama.service

6ef59292-9072-11ef-a511-92fbcf53809c.png

从上图可知目前ollama启动成功。

四、模型部署

通过上述第三小节的步骤后,Ollama模型运行环境就搭建完成,本小节将部署五个模型:1.8b的qwen、2b的gemma、3.8b的phi3、4b的qwen和7b的llama2,测试OrangePi Kunpeng Pro运行模型的实际效果。模型细节如下表所示:

序号 模型 参数 描述
1 qwen 1.8b Qwen是阿里云开发的大型语言模型,1.8b,1.1GB
2 gemma 2b Gemma是由Google DeepMind构建的一系列轻量级的开放模型,大小1.7GB
3 phi3 3.8b phi3是微软开发的开放AI模型系列,3.8b为Mini系列,大小2.4GB
4 qwen 4b Qwen是阿里云开发的大型语言模型,4b,大小2.3GB
5 llama2 7b Llama 2是由Meta平台公司发行的基础语言模型,大小3.8GB

(1)部署1.8b的qwen

使用ollama run qwen:1.8b部署1.8b的qwen模型:

6f199cdc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f313e78-9072-11ef-a511-92fbcf53809c.png

效果:运行1.8b的qwen模型,CPU负载没有占满,进行问答测试,回答速度较快,效果很好!

(2)部署2b的gemma

使用ollama run gemma:2b部署2b的gemma模型:

6f67321c-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6f85ad0a-9072-11ef-a511-92fbcf53809c.png

效果:运行2b的gemma模型和运行1.8b的qwen模型效果相似,CPU负载同样没有占满,进行问答测试,回答速度快,效果好!

(3)部署3.8的phi3

使用ollama run phi3:3.8b部署3.8b的phi3模型:

6fb6d8bc-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

6fdb60c4-9072-11ef-a511-92fbcf53809c.png

效果:运行3.8b的phi3模型,进行问答测试,回答速度变慢了。

(4)部署4b的qwen

使用ollama run qwen:4b部署4b的qwen模型:

701cdf18-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70679116-9072-11ef-a511-92fbcf53809c.png

效果:运行4b的qwen模型,进行问答测试,回答问题速度明显变慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

(5)部署7b的llama2

使用ollama run llama2:7b部署7b的llama2模型:

709d60a2-9072-11ef-a511-92fbcf53809c.png

上述模型部署完成后,对其进行问答测试,如下图所示:

70b46414-9072-11ef-a511-92fbcf53809c.png

效果:运行7b的llama2模型,CPU满负载了,进行问答测试,回答问题速度也明显变得很慢:计算生成答案的速度变慢,打印文字的速度也变慢了。

五、实际效果

上述第四小节描述了运行五个模型的实际使用效果,本小节附上运行2b的gemma模型的效果,如下图所示:

(注:因gif图对视频有所处理,以实际运行效果为准!)

六、总结

OrangePi Kunpeng Pro板卡是一块拥有较高计算性能的板卡,本文使用该板卡部署了五个模型(以本文所描述模型为参考),对于1.8b和2b量级的模型来说运行效果还可以,体验较好;对于3.8b和4b量级的模型来说,体验感有所下降,一是计算生成答案的过程变长,二是文字输出存在断续;对于7b量级的模型,体验感更是降了一个层次,文字输出存在明显的断续了。

体验感是一个非理性的名词,因人而异,不同的场景和模型,不同的使用者都可能存在不同的体验,本文所有内容仅供参考和评测!

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • AI
    AI
    +关注

    关注

    89

    文章

    38091

    浏览量

    296590
  • 板卡
    +关注

    关注

    3

    文章

    166

    浏览量

    17428
  • 模型
    +关注

    关注

    1

    文章

    3648

    浏览量

    51712

原文标题:玩玩OrangePi KunPeng Pro部署AI模型

文章出处:【微信号:嵌入式小生,微信公众号:嵌入式小生】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    使用瑞萨RUHMI工具实现AI模型部署过程

    AI无处不在。你在部署AI,你的竞争对手也在部署AI,几乎所有人都在做AI。然而,
    的头像 发表于 10-17 10:00 2339次阅读
    使用瑞萨RUHMI工具实现<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>过程

    【Sipeed MaixCAM Pro开发板试用体验】基于MaixCAM-ProAI生成图像鉴别系统

    能够有效捕捉AI生成图像与真实手绘扫描图像在纹理、笔触、光影、全局一致性等方面的细微差异。 边缘端部署:将模型量化、编译,最终高效运行在算力有限的MaixCAM-Pro开发板上。 实时
    发表于 08-21 13:59

    ai_cube训练模型最后部署失败是什么原因?

    ai_cube训练模型最后部署失败是什么原因?文件保存路径里也没有中文 查看AICube/AI_Cube.log,看看报什么错?
    发表于 07-30 08:15

    企业部署AI模型怎么做

    当下,AI模型已成为驱动决策自动化、服务智能化与产品创新的核心引擎。然而,企业面对动辄数百亿参数的大模型部署时,常陷入算力不足、响应延迟高、成本失控等困境。如何突破瓶颈,实现高效、稳
    的头像 发表于 06-04 09:26 675次阅读

    如何使用Docker部署模型

    随着深度学习和大模型的快速发展,如何高效地部署这些模型成为了一个重要的挑战。Docker 作为一种轻量级的容器化技术,能够将模型及其依赖环境打包成一个可移植的容器,极大地简化了
    的头像 发表于 05-24 16:39 796次阅读

    AI端侧部署开发(SC171开发套件V3)

    AI端侧部署开发(SC171开发套件V3) 序列 课程名称 视频课程时长 视频课程链接 课件链接 工程源码 1 Fibo AI Stack模型转化指南------Docker Desk
    发表于 04-16 18:30

    首创开源架构,天玑AI开发套件让端侧AI模型接入得心应手

    模型库的限制,联发科还首发了开源弹性架构。区别于过往的开放接口,只能部署特定架构模型,开放弹性架构允许开发者直接调整平台源代码,无需等待芯片厂商的支持,即可完成目标或其他自研大模型轻松
    发表于 04-13 19:52

    如何在RAKsmart服务器上实现企业AI模型部署

    AI模型的训练与部署需要强大的算力支持、稳定的网络环境和专业的技术管理。RAKsmart作为全球领先的服务器托管与云计算服务提供商,已成为企业部署A
    的头像 发表于 03-27 09:46 761次阅读

    AI Agent 应用与项目实战》阅读心得3——RAG架构与部署本地知识库

    则将检索到的内容与原始查询结合,生成最终响应。这种设计使得AI系统能够突破训练数据的限制,实现知识的动态更新。书中详细介绍了RAG的完整工作流程:从数据提取开始,通过文本分割将长文档切分成适当大小
    发表于 03-07 19:49

    香橙派发布OrangePi 5Plus本地部署Deepseek-R1蒸馏模型指南

    在DeepSeek迅速成为行业焦点之际,香橙派昇腾系列产品已经率先完成了与DeepSeek模型的深度适配,通过在边缘进行离线部署,帮助用户实现高效端侧智能,确保数据处理的安全性和可控性。紧接着,香橙
    的头像 发表于 02-19 16:14 1583次阅读
    香橙派发布<b class='flag-5'>OrangePi</b> 5Plus本地<b class='flag-5'>部署</b>Deepseek-R1蒸馏<b class='flag-5'>模型</b>指南

    云轴科技ZStack智塔携手昇腾AI实现DeepSeek模型部署

    DeepSeek V3/R1/ Janus Pro三种模型的高效部署,并充分发挥DeepSeek开源模型和低成本高性能特点,为企业提供安全高效的AI
    的头像 发表于 02-18 09:59 1245次阅读
    云轴科技ZStack智塔携手昇腾<b class='flag-5'>AI</b>实现DeepSeek<b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    C#集成OpenVINO™:简化AI模型部署

    什么是OpenVINO 工具套件? OpenVINO 工具套件是一个用于优化和部署人工智能(AI模型,提升AI推理性能的开源工具集合,不仅支持以卷积神经网
    的头像 发表于 02-17 10:03 2514次阅读
    C#集成OpenVINO™:简化<b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>部署</b>

    添越智创基于 RK3588 开发板部署测试 DeepSeek 模型全攻略

    DeepSeek 模型部署与测试,开启这场充满挑战与惊喜的技术探索之旅。 RK3588 开发板:AI 性能担当 RK3588 开发板基于先进的 8nm LP 制程工艺精心打造,其硬件配置堪称豪华,在
    发表于 02-14 17:42

    企业AI模型部署攻略

    当下,越来越多的企业开始探索和实施AI模型,以提升业务效率和竞争力。然而,AI模型部署并非易事,需要企业在多个层面进行细致的规划和准备。下
    的头像 发表于 12-23 10:31 1299次阅读

    AI模型部署边缘设备的奇妙之旅:目标检测模型

    并非易事,它涉及到从选择合适的算法架构到针对特定硬件平台进行优化等一系列复杂的工作。 接下来,我们将详细介绍如何在资源受限的边缘设备上成功部署目标检测模型,探索其背后的原理和技术,并讨论解决该领域内常见
    发表于 12-19 14:33