0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

如何使用MLC-LLM在A100/Mac M2上部署RWKV模型

jf_pmFSk4VX 来源:GiantPandaCV 2023-10-29 16:39 次阅读

0x0. 前言

这篇文章主要是填一下 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 这里留下来的坑,这篇文章里面介绍了如何使用 MLC-LLM 在A100/Mac M2上部署 RWKV 模型。但是探索在Android端部署一个RWKV对话模型的app时却碰到了诸多问题,解决的周期也很长,之前留了issue在MLC-LLM的repo,这周@chentianqi大佬回复说之前编译出的app会在模型初始化阶段卡住的问题已经解决了,所以我又重新开始踩了一些坑最终完成了在手机上运行RWKV World4 3B模型的目的。这里把踩的坑和Android编译方法都描述一下。

我这里编译了一个RWKV4 World 3B模型的权重int4量化版本的apk,地址为:https://github.com/BBuf/run-rwkv-world-4-in-mlc-llm/releases/download/v1.0.0/app-debug.apk 。感兴趣的小伙伴可以下载这个apk到android手机上来运行,需要注意的是由于要在线拉取HuggingFace的权重,所以手机上需要可以访问HuggingFace需要代理。

在我的Redmik50手机上进行测试,效果和速度如下:

9c0883fc-7633-11ee-939d-92fbcf53809c.png

每一秒大概可以解码8个token,我感觉速度勉强够用了。由于RWKV5迭代到了第5个版本,后续希望能支持RWKV5的模型,当然也可以寻求新的优化机会提升解码速度。

0x1. 踩坑

之前写这篇文章 MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) 的时候发现android app在初始化的时候一直会卡住,即使换成官方编译的app也是如此,所以提了issue之后就放弃了。现在这个bug被修复了,不过我没有找到具体的改动pr是什么,但我在mlc-llm的android部分没有发现相关改动,所以大概率是relax本身的bug,就不深究了。

这次仍然是按照之前的方法进行编译,但是也踩了几个坑,具体体现在下方的改动:

9c3b78de-7633-11ee-939d-92fbcf53809c.png

这个改动只是为了在本地可以编译出RWKV的android app,有坑的地方体现在下面的2个改动:

9c55d116-7633-11ee-939d-92fbcf53809c.png

第一个坑是在dump_mlc_chat_config的时候,对于RWKV World模型应该使用工程下面的tokenzier_model文件作为tokenzie的文件,但是之前没考虑这个问题(dump出的config中tokenizer_files字段为空)就会导致编译出的app在初始化阶段报错:

9c77d2de-7633-11ee-939d-92fbcf53809c.png

经过上面的修改之后重新在mlc-llm下面pip install .,然后编译模型就可以得到可以正常初始化的config了。这个问题是通过在Android Studio里面通过Device Explore查看下载的文件夹发现的,我发现少了一个tokenizer_model文件才注意的。

第二个坑是初始化完成之后聊天的时候不出字,我在mac上去复现了这个错误,然后发现是因为在RWKV里面把max_window_size这个属性设置成了1。

9c94482e-7633-11ee-939d-92fbcf53809c.png

然后在mlc_chat.cc里面通过max_window_size判断结束符时没有考虑-1,所以第一个token生成之后程序就终止了。所以在这里加一个特判进行了修复。

9cb44552-7633-11ee-939d-92fbcf53809c.png

解决了上面2个问题,编译出新的apk之后就可以正常运行了。

0x2. 详细教程

下面是编译出apk的详细教程。在这之前请阅读:MLC-LLM 部署RWKV World系列模型实战(3B模型Mac M2解码可达26tokens/s) ,这是前置内容。

对于Android,你可以按照https://mlc.ai/mlc-llm/docs/deploy/android.html的教程在你的手机上编译apk。

根据官方教程,这里有一些需要修改的地方:

  1. 修改这个文件。更新的内容应该是:
{
"model_libs":[
"RWKV-4-World-3B-q4f16_1"
],
"model_list":[
{
"model_url":"https://huggingface.co/BBuf/RWKV-4-World-3B-q4f16_1/",
"local_id":"RWKV-4-World-3B-q4f16_1"
}
],
"add_model_samples":[]
}
  1. 将代码的这个部分修改为:
compileOptions{
sourceCompatibilityJavaVersion.VERSION_17
targetCompatibilityJavaVersion.VERSION_17
}
kotlinOptions{
jvmTarget='17'
}
  1. 如果你遇到错误:“Android Gradle插件要求运行Java 17。你目前使用的是Java 11”,请按照https://stackoverflow.com/questions/76362800/android-gradle-plugin-requires-java-17-to-run-you-are-currently-using-java-11 的方法清除缓存并重新编译。

一旦你完成了APK的编译,你可以在你的手机上启用开发者模式并安装APK以供使用。

以小米手机为例,你可以按照下面的教程启用开发者模式并将APK传输到你的手机上。

  • 第一步:在手机上启用USB调试

    • 首先,前往你的手机的"设置 -> 我的设备 -> 所有规格 -> MIUI版本",连续点击"MIUI版本"七次以进入开发者模式。
    • 接下来,导航至"设置 -> 额外设置 -> 开发者选项",打开"USB调试"和"USB安装"。
  • 第二步:配置Android Studio

    • 打开你的Android Studio项目,前往"运行 -> 编辑配置",如下图所示,选择"打开选择部署目标对话框"。这将在每次你调试时提示设备选择对话框。注意:如果你直接选择"USB设备",你可能无法在调试过程中检测到你的手机。
  • 第三步:在线调试

    • 通过USB将你的手机连接到电脑。通常会自动安装必要的驱动程序。当你运行程序时,将出现设备选择对话框。选择你的手机,APK将自动安装并运行。

一个编译好的apk: https://github.com/BBuf/run-rwkv-world-4-in-mlc-llm/releases/download/v1.0.0/app-debug.apk

0x3. 总结

这篇文章分享了一下使用MLC-LLM将RWKV模型跑在Android手机上遭遇的坑以及编译的详细教程,接下来也会尝试一下RWKV5。想在andorid手机上本地运行开源大模型的伙伴们可以考虑一下MLC-LLM,他们的社区还是比较活跃的,如果你提出一些问题一般都会有快速的回复或者解决方法。

0x4. 相关link

  • https://github.com/mlc-ai/tokenizers-cpp/pull/14
  • https://github.com/mlc-ai/mlc-llm/pull/1136
  • https://github.com/mlc-ai/mlc-llm/pull/848
  • https://mlc.ai/mlc-llm/docs/
  • StarRing2022/RWKV-4-World-1.5B
  • StarRing2022/RWKV-4-World-3B
  • StarRing2022/RWKV-4-World-7B
  • https://github.com/mlc-ai/mlc-llm/issues/862
  • https://github.com/mlc-ai/mlc-llm/issues/859



声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 模型
    +关注

    关注

    1

    文章

    2707

    浏览量

    47702
  • 编译
    +关注

    关注

    0

    文章

    615

    浏览量

    32397
  • MLC
    MLC
    +关注

    关注

    0

    文章

    31

    浏览量

    17152

原文标题:0x4. 相关link

文章出处:【微信号:GiantPandaCV,微信公众号:GiantPandaCV】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    【NanoPi M2试用体验】NanoPi M2开箱

    `笔者作为一个新手,拿到NanoPi M2后还是有点小激动的,话不多说,上图我们的NanoPi M2由顺丰快运而来,上下都有海绵,摆放也是相当整齐。全家福,包括8G卡,2A充电头,两
    发表于 04-15 14:16

    【NanoPi M2申请】NanoPi M2与PLC

    申请理由:NanoPi M2与PLC结合,设备交付后使用NanoPi M2进行监控及简单的故障复位(联网完成),再也不用出差全国各地跑了,简单问题联网解决.项目描述:NanoPi M2联网监控PLC工业控制,以及简单故障处理.
    发表于 04-27 16:09

    请问华美A100怎么刷固件

    刚买回来的华美A100路由器,马上想刷一下固件试一试摄像头功能,可为什么根据视频一样的方法就是刷不进去呢? 步骤跟视频一样,但是最后是出现TTTTT字样不是....字样,就是刷不进去。
    发表于 02-28 22:30

    介绍STM32cubeIDE上部署AI模型的系列教程

    介绍STM32cubeIDE上部署AI模型的系列教程,开发板型号STM32H747I-disco,值得一看。MCUAI原文链接:【嵌入式AI开发】篇四|部署篇:STM32cubeID
    发表于 12-14 09:05

    如何用Arm虚拟硬件Arm Cortex-M上部署PaddlePaddle

    推理模型  3. 使用TVMC为目标设备编译 Paddle 推理模型4. 构建文本识别应用程序并将其部署 Arm Virtual带有Arm Cortex-
    发表于 09-02 14:48

    Arm虚拟硬件上部署PP-PicoDet模型

    1、Arm虚拟硬件上部署PP-PicoDet模型  经典的深度学习工程是从确认任务目标开始的,我们首先来简单地介绍一下目标检测任务以及本期部署实战课程中我们所使用的工具和平台。  目
    发表于 09-16 14:42

    Arm虚拟硬件上部署PP-PicoDet模型的设计方案

    1、Arm虚拟硬件上部署PP-PicoDet模型  经典的深度学习工程是从确认任务目标开始的,我们首先来简单地介绍一下目标检测任务以及本期部署实战课程中我们所使用的工具和平台。  目
    发表于 09-23 15:02

    在OpenNCC上部署人脸检测模型

    电子发烧友网站提供《在OpenNCC上部署人脸检测模型.zip》资料免费下载
    发表于 06-27 10:34 0次下载
    在OpenNCC<b class='flag-5'>上部署</b>人脸检测<b class='flag-5'>模型</b>

    英伟达a100和h100哪个强?

    英伟达a100和h100哪个强? 英伟达A100比H100更强。英伟达A100在处理大型模型和数
    的头像 发表于 08-07 17:32 1.1w次阅读

    英伟达A100的简介

    英伟达A100的简介 A100都是非常强大的GPU。英伟达A100、A800、H100、V100也在大
    的头像 发表于 08-08 15:17 7627次阅读

    英伟达A100的优势分析

    英伟达A100的优势分析 在大模型训练中,A100是非常强大的GPU。A100是英伟达推出的一款强大的数据中心GPU,采用全新的Ampere架构。拥有高达6,912个CUDA核心和40
    的头像 发表于 08-08 15:25 2666次阅读

    MLC-LLM的编译部署流程

    MLC-LLM部署在各种硬件平台的需求,然后我就开始了解MLC-LLM的编译部署流程和RWKV World
    的头像 发表于 09-04 09:22 1803次阅读
    <b class='flag-5'>MLC-LLM</b>的编译<b class='flag-5'>部署</b>流程

    深度学习模型部署与优化:策略与实践;L40S与A100、H100的对比分析

    、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800
    的头像 发表于 09-22 14:13 663次阅读
    深度学习<b class='flag-5'>模型</b><b class='flag-5'>部署</b>与优化:策略与实践;L40S与<b class='flag-5'>A100</b>、H<b class='flag-5'>100</b>的对比分析

    mlc-llm对大模型推理的流程及优化方案

    MLC-LLM 部署RWKV World系列模型实战(3B模型Mac
    发表于 09-26 12:25 448次阅读
    <b class='flag-5'>mlc-llm</b>对大<b class='flag-5'>模型</b>推理的流程及优化方案

    使用MLC-LLM支持RWKV-5推理的过程思考

    LLM的理解比较有限,从代码实现的角度来说,RWKV的状态和KV Cache不同,不依赖序列长度,这让RWKV模型在各种长度下运行内存和运行速度都是趋于稳定的,所以我感觉工程价值是比
    的头像 发表于 11-19 15:58 553次阅读
    使用<b class='flag-5'>MLC-LLM</b>支持<b class='flag-5'>RWKV</b>-5推理的过程思考