0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

K1 AI CPU基于llama.cpp与Ollama的大模型部署实践

进迭时空 2025-02-18 14:23 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

为了应对大模型(LLM)、AIGC等智能化浪潮的挑战,进迭时空通过AI指令扩展,在RISC-V CPU中注入了原生AI算力。这种具有原生AI能力的CPU,我们称之为AI CPU。K1作为进迭时空第一颗AI CPU芯片,已于今年4月份发布。

下面我们以K1为例,结合llama.cpp来展示AI CPU在大模型领域的优势。


llama.cpp是一个开源的高性能CPU/GPU大语言模型推理框架,适用于消费级设备及边缘设备。开发者可以通过工具将各类开源大语言模型转换并量化成gguf格式的文件,然后通过llama.cpp实现本地推理。

得益于RISC-V社区的贡献,已有llama.cpp在K1上高效运行的案例,但大语言模型的CPU资源使用过高,使其很难负载其他的上层应用。为此进迭时空在llama.cpp社区版本的基础上,基于IME矩阵加速拓展指令,对大模型相关算子进行了优化,在仅使用4核CPU的情况下,达到目前社区最好版本8核性能的2-3倍,充分释放了CPU Loading,给开发者更多空间实现AI应用。


Ollama是一个开源的大型语言模型服务工具,它帮助用户快速在本地运行大模型。通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,如Llama、Qwen、Gemma等。

部署实践

工具与模型准备

#在K1上拉取ollama与llama.cpp预编译包apt updateapt install spacemit-ollama-toolkit
#k开启ollama服务ollama serve
#下载模型wget -P /home/llm/ https://archive.spacemit.com/spacemit-ai/ModelZoo/gguf/qwen2.5-0.5b-q4_0_16_8.gguf
#导入模型,例为qwen2.5-0.5b#modelfile地址:https://archive.spacemit.com/spacemit-ai/ollama/modelfile/qwen2.5-0.5b.modelfileollama create qwen2 -f qwen2.5-0.5b.modelfile
#运行模型ollama run qwen2

Ollama效果展示


性能与资源展示

我们选取了端侧具有代表性的0.5B-4B尺寸的大语言模型,展示K1的AI扩展指令的加速效果。

参考性能分别为llama.cpp的master分支(下称官方版本),以及RISC-V社区的优化版本(下称RISC-V社区版本,GitHub地址为:

https://github.com/xctan/llama.cpp/tree/rvv_q4_0_8x8)

d43e940e-edc0-11ef-9434-92fbcf53809c.png

所有模型均采用4bit量化。其中RISC-V社区版本以及官方版本模型为最优实现的加速效果,模型量化时将token-embedding-type设置为q8_0。

llama.cpp的进迭时空版本CPU占用情况:

d44b142c-edc0-11ef-9434-92fbcf53809c.pngd4557b74-edc0-11ef-9434-92fbcf53809c.png

llama.cpp的RISC-V社区版本CPU占用情况:

d4611e5c-edc0-11ef-9434-92fbcf53809c.pngd46aee64-edc0-11ef-9434-92fbcf53809c.png

参考文档

https://github.com/ggerganov/llama.cpp

https://github.com/ollama/ollama

https://github.com/QwenLM/Qwen2.5

Qwen2 Technical Report

https://ollama.com

结语

进迭时空在K1平台上大模型部署方面取得了初步进展,其卓越的性能与高度的开放性令人瞩目。这为开发者们提供了一个极为友好的环境,使他们能够轻松依托社区资源,进一步拓展和创新,开发出更多丰富的应用。

我们满怀期待地憧憬着K1平台上未来可能出现的更多大语言模型应用的创新设想。在此过程中,我们将持续保持关注并不断推进相关工作。此外,本文所提及的预发布软件包,将在年底以源代码的形式开源,以供广大开发者共同学习与探索。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    463

    文章

    54448

    浏览量

    469460
  • cpu
    cpu
    +关注

    关注

    68

    文章

    11331

    浏览量

    225910
  • 大模型
    +关注

    关注

    2

    文章

    3787

    浏览量

    5273
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    【瑞萨AI挑战赛】手写数字识别模型在RA8P1 Titan Board上的部署

    最终的板端部署与运行,完整实现手写数字识别模型的端侧落地,为嵌入式AI开发提供可参考的实践方案。 一、RA8P1 Titan Board开发
    发表于 03-15 20:42

    模型 ai coding 比较

    序 我主要用途是 ai coding,从各种渠道获取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    发表于 02-19 13:43

    如何在Arm Neoverse N2平台上提升llama.cpp扩展性能

    跨 NUMA 内存访问可能会限制 llama.cpp 在 Arm Neoverse 平台上的扩展能力。本文将为你详细分析这一问题,并通过引入原型验证补丁来加以解决。测试结果表明,在基于 Neoverse N2 平台的系统上运行 llama3_Q4_0
    的头像 发表于 02-11 10:06 314次阅读

    NVIDIA DLSS 4.5为4K 240Hz路径追踪游戏体验提供强劲支持

    DLSS 技术持续进步,超分辨率升级,并引入基于第二代 Transformer AI 模型的 6 倍动态多帧生成。RTX 加速为 ComfyUI、LTX-2 和 Llama.cpp 等顶级主流
    的头像 发表于 01-09 10:28 722次阅读

    【CIE全国RISC-V创新应用大赛】基于 K1 AI CPU 的大模型部署落地

    的 落地方案 : 1. 系统部署方案书 (System Proposal) 方案要点 部署工具 :使用官方提供的 spacemit-llama.cpp (v0.0.4) 二进制包。
    发表于 11-27 14:43

    十万元奖金池!首届全国RISC-V高水平创新及应用大赛火热进行中

    ://bianbu.spacemit.com/ai/llama-cpp 2.基于K1 AI CPU的大
    发表于 09-25 13:56

    本地部署openWebUI + ollama+DeepSeek 打造智能知识库并实现远程访问

    。 DeepSeek 作为一个开源的大语言模型,我们可以通过 ZeroNews + openWebUI + ollama的方式,轻松的在本地私有化部署 DeepSeek,不受网络攻击影响,满足不同用户的需求场景。 下面
    的头像 发表于 09-10 16:41 5524次阅读
    本地<b class='flag-5'>部署</b>openWebUI + <b class='flag-5'>ollama</b>+DeepSeek 打造智能知识库并实现远程访问

    RISC-V CPU 上 3 倍推理加速!V-SEEK:在 SOPHON SG2042 上加速 14B LLM

    关键词:V-SEEK、LLMInferenceOptimization、RISC-V、SOPHONSG2042、llama.cpp、NUMAOptimizationV-SEE
    的头像 发表于 08-05 14:01 1496次阅读
    RISC-V <b class='flag-5'>CPU</b> 上 3 倍推理加速!V-SEEK:在 SOPHON SG2042 上加速 14B LLM

    ai_cube训练模型最后部署失败是什么原因?

    ai_cube训练模型最后部署失败是什么原因?文件保存路径里也没有中文 查看AICube/AI_Cube.log,看看报什么错?
    发表于 07-30 08:15

    利用Arm i8mm指令优化llama.cpp

    本文将为你介绍如何利用 Arm i8mm 指令,具体来说,是通过带符号 8 位整数矩阵乘加指令 smmla,来优化 llama.cpp 中 Q6_K 和 Q4_K 量化模型推理。
    的头像 发表于 07-24 09:51 2202次阅读
    利用Arm i8mm指令优化<b class='flag-5'>llama.cpp</b>

    【VisionFive 2单板计算机试用体验】3、开源大语言模型部署

    1ollama平台搭建 ollama可以快速地部署开源大模型,网址为https://ollama
    发表于 07-19 15:45

    Arm Neoverse N2平台实现DeepSeek-R1满血版部署

    颇具优势。Arm 携手合作伙伴,在 Arm Neoverse N2 平台上使用开源推理框架 llama.cpp 实现 DeepSeek-R1 满血版的部署,目前已可提供线上服务。
    的头像 发表于 07-03 14:37 1434次阅读
    Arm Neoverse N2平台实现DeepSeek-R<b class='flag-5'>1</b>满血版<b class='flag-5'>部署</b>

    【M-K1HSE开发板免费体验】开发板硬件解析

    算力是ARM A55的130%以上,能够满足高性能计算的需求。 2.AI加速能力:K1芯片融合了2.0TOPS的原生AI算力,支持从AlexNet到Llama-2-7b的所有
    发表于 07-02 11:57

    使用 NPU 插件对量化的 Llama 3.1 8b 模型进行推理时出现“从 __Int64 转换为无符号 int 的错误”,怎么解决?

    安装了 OpenVINO™ GenAI 2024.4。 使用以下命令量化 Llama 3.1 8B 模型: optimum-cli export openvino -m meta-llama
    发表于 06-25 07:20

    高度集成,基于RISC-V AI CPU芯片K1的PsP封装CoM产品发布

    进迭时空推出首款PsP(Package-side-Package)封装CoM(Computer-on-Module)产品B1,集成RISC-VAICPU芯片K1、LPDDR4x芯片和无源器件,重布线
    的头像 发表于 06-06 16:55 1325次阅读
    高度集成,基于RISC-V <b class='flag-5'>AI</b> <b class='flag-5'>CPU</b>芯片<b class='flag-5'>K1</b>的PsP封装CoM产品发布